JavaScript is required to for searching.
跳过导航链接
退出打印视图
Oracle Solaris Cluster 软件安装指南
search filter icon
search icon

文档信息

前言

1.  规划 Oracle Solaris Cluster 配置

2.  在全局群集节点上安装软件

3.  建立全局群集

4.  配置 Solaris Volume Manager 软件

5.  安装和配置 Veritas Volume Manager

6.  创建群集文件系统

7.  创建非全局区域和区域群集

在全局群集节点上配置非全局区域

如何在全局群集节点上创建非全局区域

如何对非全局区域使用的群集文件系统配置 HAStoragePlus 资源

配置区域群集

clzonecluster 实用程序概述

建立区域群集

如何准备将 Trusted Extensions 用于区域群集

如何创建区域群集

向区域群集中添加文件系统

如何向区域群集中添加本地文件系统

如何向区域群集中添加 ZFS 存储池

如何向区域群集中添加 QFS 共享文件系统

如何向区域群集中添加群集文件系统

向区域群集中添加存储设备

如何向区域群集中添加单个元设备 (Solaris Volume Manager)

如何向区域群集中添加磁盘集 (Solaris Volume Manager)

如何向区域群集中添加 DID 设备

如何向区域群集中添加原始磁盘设备

8.  将 Oracle Solaris Cluster 模块安装到 Sun Management Center

9.  从群集中卸载软件

A.  Oracle Solaris Cluster 安装和配置工作单

索引

配置区域群集

本节提供了配置 Solaris Container 非全局区域群集(称为区域群集)的过程。

clzonecluster 实用程序概述

clzonecluster 实用程序可用来创建、修改和删除区域群集。clzonecluster 实用程序主动管理区域群集。例如,clzonecluster 实用程序既可以引导区域群集,又可以停止区域群集。clzonecluster 实用程序的进度消息输出到控制台,而不是保存在日志文件中。

zonecfg 实用程序类似,该实用程序在以下范围级别运行:

建立区域群集

本节介绍了如何配置非全局区域的群集。

如何准备将 Trusted Extensions 用于区域群集

本过程准备全局群集以将 Oracle Solaris 的 Trusted Extensions 功能用于区域群集并启用 Trusted Extensions 功能。

如果不打算启用 Trusted Extensions,请转至如何创建区域群集

请对全局群集中的每个节点执行该过程。

开始之前

执行以下任务:

  1. 成为全局群集中某个节点上的超级用户。
  2. 禁用 Trusted Extensions zonesharezoneunshare 脚本。

    Trusted Extensions zonesharezoneunshare 脚本支持在系统上导出主目录的功能。Oracle Solaris Cluster 配置不支持此功能。

    通过用 /bin/true 实用程序的符号链接替换各个脚本可禁用此功能。在每个全局群集节点上执行此操作。

    phys-schost# ln -s /usr/lib/zones/zoneshare /bin/true
    phys-schost# ln -x /usr/lib/zones/zoneunshare /bin/true
  3. 配置全局群集中的所有逻辑主机名共享 IP 地址。

    请参见《Oracle Solaris Trusted Extensions Configuration Guide》中的"Run the txzonemgr Script"

  4. 确保已在 /etc/security/tsol/tnrhdb 文件中将管理控制台定义为 admin_low
    ipaddress:admin_low
  5. 确保 /etc/hostname.interface 文件的条目中不包含 -failover 选项。

    从包含 -failover 选项的任何条目中删除该选项。

  6. 修改 /etc/security/tsol/tnrhdb 文件以允许与全局群集组件进行通信。

    按照《Oracle Solaris Trusted Extensions Administrator’s Procedures》中的"How to Construct a Remote Host Template"中所述,使用 Solaris Management Console 中的安全模板向导执行以下任务。

    • 为群集组件使用的 IP 地址创建新条目并为每个条目分配一个 CIPSO 模板。

      为全局群集节点的 /etc/inet/hosts 文件中存在的以下各个 IP 地址添加条目:

      • 每个全局群集节点专用 IP 地址

      • 全局群集中的所有 cl_privnet IP 地址

      • 全局群集的每个逻辑主机名公共 IP 地址

      • 全局群集的每个共享地址公共 IP 地址

      相应条目应类似如下。

      127.0.0.1:cipso
      172.16.4.1:cipso
      172.16.4.2:cipso
      …
    • 添加一个条目,使默认模板成为内部模板。

      0.0.0.0:internal

    有关 CIPSO 模板的更多信息,请参见《Oracle Solaris Trusted Extensions Configuration Guide》中的"Configure the Domain of Interpretation"

  7. 启用 Trusted Extensions SMF 服务并重新引导全局群集节点。
    phys-schost# svcadm enable -s svc:/system/labeld:default
    phys-schost# shutdown -g0 -y -i6

    有关更多信息,请参见《Oracle Solaris Trusted Extensions Configuration Guide》中的"Enable Trusted Extensions"

  8. 检验是否已启用 Trusted Extensions SMF 服务。
    phys-schost# svcs labeld
    STATE          STIME    FMRI
    online         17:52:55 svc:/system/labeld:default
  9. 对全局群集的其余每个节点重复执行步骤 1步骤 8

    在所有全局群集节点上启用 SMF 服务后,对全局群集的每个节点执行此过程的其余步骤。

  10. 将启用了 Trusted Extensions 的 LDAP 服务器的 IP 地址添加到每个全局群集节点的 /etc/inet/hosts 文件。

    全局区域和区域群集的节点均使用 LDAP 服务器。

  11. 启用 LDAP 服务器到全局群集节点的远程登录。
    1. /etc/default/login 文件中,注释掉 CONSOLE 条目。
    2. 启用远程登录。
      phys-schost# svcadm enable rlogin
    3. 修改 /etc/pam.conf 文件。

      通过附加 Tab 并分别键入 allow_remoteallow_unlabeled 来修改帐户管理条目,如下所示。

      other   account requisite       pam_roles.so.1        Tab  allow_remote
      other   account required        pam_unix_account.so.1 Tab  allow_unlabeled
  12. 修改 /etc/nsswitch.ldap 文件。
    • 确保 passwdgroup 查找条目在查找顺序中首先列出 files

      …
      passwd:      files ldap
      group:       files ldap
      …
    • 确保 hostsnetmasks 查找条目在查找顺序中首先列出 cluster

      …
      hosts:       cluster files ldap
      …
      netmasks:    cluster files ldap
      …
  13. 使全局群集节点充当 LDAP 客户机。

    请参见《Oracle Solaris Trusted Extensions Configuration Guide》中的"Make the Global Zone an LDAP Client in Trusted Extensions"

  14. 将 Trusted Extensions 用户添加到 /etc/security/tsol/tnzonecfg 文件。

    按照《Solaris Trusted Extensions Installation and Configuration for Solaris 10 11/06 and Solaris 10 8/07 Releases》中的"Creating Roles and Users in Trusted Extensions"中所述,使用 Solaris Management Console 中的添加用户向导。

接下来的操作

创建区域群集。转到如何创建区域群集

如何创建区域群集

执行此过程可创建非全局区域的群集。

开始之前
  1. 成为全局群集的某个活动成员节点上的超级用户。

    注 - 从全局群集的节点执行此过程中的所有步骤。


  2. 确保全局群集的节点处于群集模式。

    如果任一节点处于非群集模式,当该节点返回到群集模式时,所做的更改将进行传播。因此,即使某些全局群集节点处于非群集模式,您也可以创建区域群集。当这些节点返回到群集模式时,系统会对它们执行区域群集创建任务。

    phys-schost# clnode status
    === Cluster Nodes ===
    
    --- Node Status ---
    
    Node Name                                       Status
    ---------                                       ------
    phys-schost-2                                   Online
    phys-schost-1                                   Online
  3. 创建区域群集。

    请遵循以下特殊说明:

    • 如果启用 Trusted Extensions,则 zoneclustername 必须与具有要分配给区域群集的安全级别的 Trusted Extensions 安全标签名称相同。这些安全标签在全局群集的 /etc/security/tsol/tnrhtp 文件中进行配置。

    • 默认情况下,将创建稀疏根区域 (sparse root zone)。要创建整个根区域,请为 create 命令添加 -b 选项。

    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> create
    
    Set the zone path for the entire zone cluster
    clzc:zoneclustername> set zonepath=/zones/zoneclustername
    
    Add the first node and specify node-specific settings
    clzc:zoneclustername> add node
    clzc:zoneclustername:node> set physical-host=baseclusternode1
    clzc:zoneclustername:node> set hostname=hostname1
    clzc:zoneclustername:node> add net
    clzc:zoneclustername:node:net> set address=public_netaddr
    clzc:zoneclustername:node:net> set physical=adapter
    clzc:zoneclustername:node:net> end
    clzc:zoneclustername:node> end
    
    Add authorization for the public-network addresses that the zone cluster is allowed to use
    clzc: zoneclustername> add net
    clzc: zoneclustername:net> set address=ipaddress1
    clzc: zoneclustername:net> end
    
    Set the root password globally for all nodes in the zone cluster
    clzc:zoneclustername> add sysid
    clzc:zoneclustername:sysid> set root_password=encrypted_password
    clzc:zoneclustername:sysid> end
    
    Save the configuration and exit the utility
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  4. 如果启用 Trusted Extensions,请设置 /var/tsol/doors 文件系统并将名称服务属性设置为 NONE
    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=/var/tsol/doors
    clzc:zoneclustername:fs> set special=/var/tsol/doors
    clzc:zoneclustername:fs> set type=lofs
    clzc:zoneclustername:fs> add options ro
    clzc:zoneclustername:fs> end
    
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  5. (可选的)向区域群集中添加一个或多个附加节点。
    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> add node
    clzc:zoneclustername:node> set physical-host=baseclusternode2
    clzc:zoneclustername:node> set hostname=hostname2
    clzc:zoneclustername:node> add net
    clzc:zoneclustername:node:net> set address=public_netaddr
    clzc:zoneclustername:node:net> set physical=adapter
    clzc:zoneclustername:node:net> end
    clzc:zoneclustername:node> end
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  6. 如果启用 Trusted Extensions,请在每个全局群集节点上添加或修改 /zones/zoneclustername/root/etc/sysidcfg 文件中的以下条目。
    phys-schost-1# clzonecluster configure zoneclustername
    clzc:zoneclustername> add sysid
    clzc:zoneclustername:sysid> set name_service=LDAP
    clzc:zoneclustername:sysid> set domain_name=domainorg.domainsuffix
    clzc:zoneclustername:sysid> set proxy_dn="cn=proxyagent,ou=profile,dc=domainorg,dc=domainsuffix"
    clzc:zoneclustername:sysid> set proxy_password="proxypassword"
    clzc:zoneclustername:sysid> set profile=ldap-server
    clzc:zoneclustername:sysid> set profile_server=txldapserver_ipaddress
    clzc:zoneclustername:sysid> end
    
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  7. 检验区域群集配置。

    verify 子命令用于检查指定资源的可用性。如果 clzonecluster verify 命令成功,则不会输出任何内容。

    phys-schost-1# clzonecluster verify zoneclustername
    phys-schost-1# clzonecluster status zoneclustername
    === Zone Clusters ===
    
    --- Zone Cluster Status ---
    
    Name      Node Name   Zone HostName   Status    Zone Status
    ----      ---------   -------------   ------    -----------
    zone      basenode1    zone-1        Offline   Configured
              basenode2    zone-2        Offline   Configured
  8. 安装区域群集。
    phys-schost-1# clzonecluster install zoneclustername
    Waiting for zone install commands to complete on all the nodes 
    of the zone cluster "zoneclustername"...
  9. 引导区域群集。
    Installation of the zone cluster might take several minutes
    phys-schost-1# clzonecluster boot zoneclustername
    Waiting for zone boot commands to complete on all the nodes of 
    the zone cluster "zoneclustername"...
  10. 如果使用 Trusted Extensions,请完成区域群集的 IP 地址映射。

    对区域群集的每个节点执行本步骤。

    1. 从全局群集的节点中显示节点的 ID。
      phys-schost# cat /etc/cluster/nodeid
      N
    2. 登录到同一全局群集节点上的区域群集节点。

      在登录前,确保已导入 SMF 服务且所有服务已启动。

    3. 确定此区域群集节点用于专用互连的 IP 地址。

      群集软件在配置区域群集时会自动分配这些 IP 地址。

      ifconfig -a 输出中,找到属于区域群集的 clprivnet0 逻辑接口。inet 的值是此区域群集为支持群集专用互连的使用而分配的 IP 地址。

      zc1# ifconfig -a
      lo0:3: flags=20010008c9<UP,LOOPBACK,RUNNING,NOARP,MULTICAST,IPv4,VIRTUAL> mtu 8232 index 1
              zone zc1
              inet 127.0.0.1 netmask ff000000
      bge0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2
              inet 10.11.166.105 netmask ffffff00 broadcast 10.11.166.255
              groupname sc_ipmp0
              ether 0:3:ba:19:fa:b7
      ce0: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 4
              inet 10.11.166.109 netmask ffffff00 broadcast 10.11.166.255
              groupname sc_ipmp0
              ether 0:14:4f:24:74:d8
      ce0:3: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 4
              zone zc1
              inet 10.11.166.160 netmask ffffff00 broadcast 10.11.166.255
      clprivnet0: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7
              inet 172.16.0.18 netmask fffffff8 broadcast 172.16.0.23
              ether 0:0:0:0:0:2
      clprivnet0:3: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1500 index 7
              zone zc1
              inet 172.16.0.22 netmask fffffffc broadcast 172.16.0.23
    4. 将区域群集节点的 IP 地址添加到区域群集节点的 /etc/inet/hosts 文件中。
      • 用于专用互连的主机名 clusternodeN-priv,其中 N 是全局群集节点 ID

        172.16.0.22    clusternodeN-priv 
      • 在创建区域群集时在 clzonecluster 命令中指定的每个 net 资源

    5. 对其余的区域群集节点重复执行上述步骤。
  11. 修改 /etc/security/tsol/tnrhdb 文件以允许与区域群集组件进行通信。

    按照《Oracle Solaris Trusted Extensions Administrator’s Procedures》中的"How to Construct a Remote Host Template"中所述,使用 Solaris Management Console 中的安全模板向导执行以下任务。

    • 为区域群集组件使用的 IP 地址创建新条目并为每个条目分配一个 CIPSO 模板。

      为区域群集节点的 /etc/inet/hosts 文件中存在的以下各个 IP 地址添加条目:

      • 每个区域群集节点专用 IP 地址

      • 区域群集中的所有 cl_privnet IP 地址

      • 区域群集的每个逻辑主机名公共 IP 地址

      • 区域群集的每个共享地址公共 IP 地址

      相应条目应类似如下。

      127.0.0.1:cipso
      172.16.4.1:cipso
      172.16.4.2:cipso
      …
    • 添加一个条目,使默认模板成为内部模板。

      0.0.0.0:internal

    有关 CIPSO 模板的更多信息,请参见《Oracle Solaris Trusted Extensions Configuration Guide》中的"Configure the Domain of Interpretation"

  12. 修改完所有区域群集节点后,重新引导全局群集节点以初始化对区域群集 /etc/inet/hosts 文件的更改。
    phys-schost# init -g0 -y -i6
  13. 启用 DNS 和对区域群集节点的 rlogin 访问。

    对区域群集的每个节点执行以下命令。

    phys-schost# zlogin zcnode
    zcnode# svcadm enable svc:/network/dns/client:default
    zcnode# svcadm enable svc:/network/login:rlogin
    zcnode# reboot

示例 7-2 用来创建区域群集的配置文件

以下示例显示了可以与 clzonecluster 实用程序一起用来创建区域群集的命令文件的内容。该文件包含一系列需要您手动输入的 clzonecluster 命令。

在下面的配置中,将在全局群集节点 phys-schost-1 上创建区域群集 sczone。区域群集将 /zones/sczone 用作区域路径以及公共 IP 地址 172.16.2.2。区域群集的第一个节点被指定主机名 zc-host-1,并使用网络地址 172.16.0.1bge0 适配器。区域群集的第二个节点是在全局群集节点 phys-schost-2 上创建的。第二个区域群集节点被指定主机名 zc-host-2,并且使用网络地址 172.16.0.2bge1 适配器。

create
set zonepath=/zones/sczone
add net
set address=172.16.2.2
end
add node
set physical-host=phys-schost-1
set hostname=zc-host-1
add net
set address=172.16.0.1
set physical=bge0
end
end
add sysid
set root_password=encrypted_password
end
add node
set physical-host=phys-schost-2
set hostname=zc-host-2
add net
set address=172.16.0.2
set physical=bge1
end
end
commit
exit

示例 7-3 使用配置文件创建区域群集

以下示例显示了使用配置文件 sczone-config 在全局群集节点 phys-schost-1 上创建新的区域群集 sczone 时所用的命令。区域群集节点的主机名为 zc-host-1zc-host-2

phys-schost-1# clzonecluster configure -f sczone-config sczone
phys-schost-1# clzonecluster verify sczone
phys-schost-1# clzonecluster install sczone
Waiting for zone install commands to complete on all the nodes of the 
zone cluster "sczone"...
phys-schost-1# clzonecluster boot sczone
Waiting for zone boot commands to complete on all the nodes of the 
zone cluster "sczone"...
phys-schost-1# clzonecluster status sczone
=== Zone Clusters ===

--- Zone Cluster Status ---

Name      Node Name        Zone HostName    Status    Zone Status
----      ---------        -------------    ------    -----------
sczone    phys-schost-1    zc-host-1        Offline   Running
          phys-schost-2    zc-host-2        Offline   Running
接下来的操作

要向区域群集中添加文件系统,请转至向区域群集中添加文件系统

要向区域群集中添加全局存储设备,请转至向区域群集中添加存储设备

向区域群集中添加文件系统

本节介绍了添加供区域群集使用的文件系统的过程。

在将某个文件系统添加到区域群集并使其联机之后,将授权在该区域群集中使用文件系统。要挂载文件系统以供使用,可通过使用群集资源(例如 SUNW.HAStoragePlusSUNW.ScalMountPoint)来配置文件系统。


注 - 不能使用 clzonecluster 命令将挂载到单个全局群集节点上的本地文件系统添加到区域群集中,而是应当像在独立系统中通常那样使用 zonecfg 命令。本地文件系统将不受群集控制。


本节包含以下过程:

此外,要将 ZFS 存储池配置为在区域群集中具有高可用性,请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available"

如何向区域群集中添加本地文件系统

执行此过程可在全局群集上添加供区域群集使用的本地文件系统。


注 - 要向区域群集中添加 ZFS 池,请改为执行如何向区域群集中添加 ZFS 存储池中的过程。

或者,要将 ZFS 存储池配置为在区域群集中具有高可用性,请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available"


  1. 成为可托管区域群集的全局群集节点上的超级用户。

    注 - 请从全局群集的某个节点执行此过程的所有步骤。


  2. 在全局群集上,创建要在区域群集中使用的文件系统。

    确保在共享磁盘上创建了文件系统。

  3. 将该文件系统添加到区域群集配置中。
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=mountpoint
    clzc:zoneclustername:fs> set special=disk-device-name
    clzc:zoneclustername:fs> set raw=raw-disk-device-name
    clzc:zoneclustername:fs> set type=FS-type
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    dir=mountpoint

    指定文件系统挂载点

    special=disk-device-name

    指定磁盘设备的名称

    raw=raw-disk-device-name

    指定原始磁盘设备的名称

    type=FS-type

    指定文件系统的类型


    注 - 启用 UFS 和 VxFS 文件系统的日志记录功能。


  4. 检验是否添加了该文件系统。
    phys-schost# clzonecluster show -v zoneclustername

示例 7-4 向区域群集中添加本地文件系统

此示例将添加供 sczone 区域群集使用的本地文件系统 /global/oracle/d1

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/global/oracle/d1
clzc:sczone:fs> set special=/dev/md/oracle/dsk/d1
clzc:sczone:fs> set raw=/dev/md/oracle/rdsk/d1
clzc:sczone:fs> set type=ufs
clzc:sczone:fs> add options [logging]
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /global/oracle/d1
    special:                                   /dev/md/oracle/dsk/d1
    raw:                                       /dev/md/oracle/rdsk/d1
    type:                                      ufs
    options:                                   [logging]
    cluster-control:                           [true]
…
接下来的操作

通过使用 HAStoragePlus 资源将文件系统配置为具有高可用性。HAStoragePlus 资源管理区域群集节点上文件系统的挂载,该节点当前托管配置为使用该文件系统的应用程序。请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"Enabling Highly Available Local File Systems"

如何向区域群集中添加 ZFS 存储池

执行此过程可添加供区域群集使用的 ZFS 存储池。


注 - 要将 ZFS 存储池配置为在区域群集中具有高可用性,请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"How to Set Up the HAStoragePlus Resource Type to Make a Local Solaris ZFS Highly Available"


  1. 成为可托管区域群集的全局群集节点上的超级用户。

    注 - 从全局区域的节点执行此过程的所有步骤。


  2. 在全局群集上创建 ZFS 存储池。

    注 - 请确保该池连接到与区域群集的所有节点相连的共享磁盘。


    有关创建 ZFS 池的过程,请参见《Oracle Solaris ZFS 管理指南》

  3. 将该池添加到区域群集配置中。
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add dataset
    clzc:zoneclustername:dataset> set name=ZFSpoolname
    clzc:zoneclustername:dataset> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  4. 检验是否添加了该文件系统。
    phys-schost# clzonecluster show -v zoneclustername

示例 7-5 向区域群集中添加 ZFS 存储池

以下示例显示了将 ZFS 存储池 zpool1 添加到区域群集 sczone 中的过程。

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add dataset
clzc:sczone:dataset> set name=zpool1
clzc:sczone:dataset> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                                dataset
    name:                                          zpool1
…
接下来的操作

通过使用 HAStoragePlus 资源将 ZFS 存储池配置为具有高可用性。HAStoragePlus 资源管理区域群集节点上的池中的文件系统的挂载,该节点当前托管配置为使用该文件系统的应用程序。请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"Enabling Highly Available Local File Systems"

如何向区域群集中添加 QFS 共享文件系统

执行此过程可添加供区域群集使用的 Sun QFS 共享文件系统。


注 - 目前,仅支持在通过 Oracle Real Application Clusters (RAC) 配置的群集中使用 QFS 共享文件系统。在不是通过 Oracle RAC 配置的群集上,可以使用配置为高可用性本地文件系统的单机 QFS 文件系统。


  1. 成为可托管区域群集的全局群集投票节点上的超级用户。

    注 - 从全局群集的投票节点执行此过程的所有步骤。


  2. 在全局群集上,配置要在区域群集中使用的 QFS 共享文件系统。

    请遵循使用 Sun Cluster 配置 Sun QFS 文件系统中用于共享文件系统的过程。

  3. 在托管区域群集节点的全局群集的每个节点上,向要在区域群集上挂载的文件系统的 /etc/vfstab 文件添加条目。
    phys-schost# vi /etc/vfstab
  4. 如果要将 QFS 共享文件系统作为回送文件系统添加到区域群集,请转至步骤 6
  5. 将该文件系统添加到区域群集配置中。
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=mountpoint
    clzc:zoneclustername:fs> set special=QFSfilesystemname
    clzc:zoneclustername:fs> set type=samfs
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit

    请转至步骤 7

  6. 将 QFS 文件系统配置为区域群集的回送文件系统。
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=lofs-mountpoint
    clzc:zoneclustername:fs> set special=QFS-mountpoint
    clzc:zoneclustername:fs> set type=lofs
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
  7. 检验是否添加了该文件系统。
    phys-schost# clzonecluster show -v zoneclustername

示例 7-6 将 QFS 共享文件系统以直接挂载形式添加到区域群集

以下示例显示了将 QFS 共享文件系统 Data-cz1 添加到区域群集 sczone 中的过程。在全局群集中,该文件系统的挂载点为 /zones/sczone/root/db_qfs/Data1,其中 /zones/sczone/root/ 是区域的根路径。在区域群集节点内,该文件系统的挂载点为 /db_qfs/Data1

phys-schost-1# vi /etc/vfstab
#device     device    mount   FS      fsck    mount     mount
#to mount   to fsck   point   type    pass    at boot   options
#          
Data-cz1 - /zones/sczone/root/db_qfs/Data1 samfs - no shared,notrace

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/db_qfs/Data1
clzc:sczone:fs> set special=Data-cz1
clzc:sczone:fs> set type=samfs
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /db_qfs/Data1
    special:                                   Data-cz1
    raw:                                       
    type:                                      samfs
    options:                                   []
…

示例 7-7 将 QFS 共享文件系统作为回送文件系统添加到区域群集

以下示例显示了将带有挂载点 /db_qfs/Data1 的 QFS 共享文件系统添加到区域群集 sczone 中的过程。在挂载点 /db_qfs/Data-cz1 处使用回送挂载机制可将该文件系统添加到区域群集。

phys-schost-1# vi /etc/vfstab
#device     device    mount   FS      fsck    mount     mount
#to mount   to fsck   point   type    pass    at boot   options
#          
Data-cz1 - /db_qfs/Data1 samfs - no shared,notrace

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add fs
clzc:sczone:fs> set dir=/db_qfs/Data-cz1
clzc:sczone:fs> set special=/db_qfs/Data
clzc:sczone:fs> set type=lofs
clzc:sczone:fs> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /db_qfs/Data1
    special:                                   Data-cz1
    raw:                                       
    type:                                      lofs
    options:                                   []
    cluster-control:                           [true]
…

如何向区域群集中添加群集文件系统

执行此过程可添加供区域群集使用的群集文件系统。

  1. 成为可托管区域群集的全局群集投票节点上的超级用户。

    注 - 从全局群集的投票节点执行此过程的所有步骤。


  2. 在全局群集上,配置要在区域群集中使用的群集文件系统。
  3. 在托管区域群集节点的全局群集的每个节点上,向要在区域群集上挂载的文件系统的 /etc/vfstab 文件添加条目。
    phys-schost# vi /etc/vfstab
    …
    /dev/global/dsk/d12s0 /dev/global/rdsk/d12s0/ /global/fs ufs 2 no global, logging
  4. 将群集文件系统配置为区域群集的回送文件系统。
    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add fs
    clzc:zoneclustername:fs> set dir=zonecluster-lofs-mountpoint
    clzc:zoneclustername:fs> set special=globalcluster-mountpoint
    clzc:zoneclustername:fs> set type=lofs
    clzc:zoneclustername:fs> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    dir=zonecluster-lofs-mountpoint

    指定 LOFS 的文件系统挂载点以使群集文件系统可用于区域群集。

    special=globalcluster-mountpoint

    指定全局群集中原始群集文件系统的文件系统挂载点。

    有关创建回送文件系统的更多信息,请参见《系统管理指南:设备和文件系统》中的"如何创建和挂载 LOFS 文件系统"

  5. 检验是否添加了 LOFS 文件系统。
    phys-schost# clzonecluster show -v zoneclustername

示例 7-8 向区域群集中添加群集文件系统

以下示例显示了如何将带有挂载点 /global/apache 的群集文件系统添加到区域群集中。在挂载点 /zone/apache 处使用回送挂载机制可将该文件系统添加到区域群集中。

phys-schost-1# vi /etc/vfstab
#device     device    mount   FS      fsck    mount     mount
#to mount   to fsck   point   type    pass    at boot   options
#          
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/apache ufs 2 yes global, logging

phys-schost-1# clzonecluster configure zoneclustername
clzc:zoneclustername> add fs
clzc:zoneclustername:fs> set dir=/zone/apache
clzc:zoneclustername:fs> set special=/global/apache
clzc:zoneclustername:fs> set type=lofs
clzc:zoneclustername:fs> end
clzc:zoneclustername> verify
clzc:zoneclustername> commit
clzc:zoneclustername> exit

phys-schost-1# clzonecluster show -v sczone
…
  Resource Name:                            fs
    dir:                                       /zone/apache
    special:                                   /global/apache
    raw:                                       
    type:                                      lofs
    options:                                   []
    cluster-control:                           true
…
接下来的操作

通过使用 HAStoragePlus 资源将群集文件系统配置为在区域群集中可用。HAStoragePlus 资源通过以下方式进行管理:在全局群集中挂载文件系统,然后在当前托管已配置为使用该文件系统的应用程序的区域群集节点上执行回送挂载。有关更多信息,请参见《Oracle Solaris Cluster Data Services Planning and Administration Guide》中的"Configuring an HAStoragePlus Resource for Cluster File Systems"

向区域群集中添加存储设备

本节介绍了如何添加供区域群集直接使用的全局存储设备。全局设备是指可以由群集中的多个节点访问(可以一次只供一个节点访问,也可以同时供多个节点访问)的设备。

在将某个设备添加到区域群集中之后,此设备将在该区域群集中可见。

本节包含以下过程:

如何向区域群集中添加单个元设备 (Solaris Volume Manager)

执行此过程可将 Solaris Volume Manager 磁盘集的单个元设备添加到区域群集中。

  1. 成为可托管区域群集的全局群集节点上的超级用户。

    请从全局群集的一个节点中执行此过程的所有步骤。

  2. 确定要添加到区域群集中的元设备所在的磁盘集,并确定该磁盘集是否处于联机状态。
    phys-schost# cldevicegroup status
  3. 如果要添加的磁盘集未处于联机状态,请将它置于联机状态。
    phys-schost# cldevicegroup online diskset
  4. 确定与要添加的磁盘集相对应的磁盘集编号。
    phys-schost# ls -l /dev/md/diskset
    lrwxrwxrwx  1 root root  8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber 
  5. 添加供区域群集使用的元设备。

    您必须对每个 set match= 条目使用单独的 add device 会话。


    注 - 在路径名称中使用星号 (*) 作为通配符。


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/metadevice
    clzc:zoneclustername:device> end
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/metadevice
    clzc:zoneclustername:device> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    match=/dev/md/diskset/*dsk/metadevice

    指定元设备的完整逻辑设备路径

    match=/dev/md/shared/N/*dsk/metadevice

    指定磁盘集编号的完整物理设备路径

  6. 重新引导区域群集。

    所做的更改将在区域群集重新引导之后生效。

    phys-schost# clzonecluster reboot zoneclustername

示例 7-9 向区域群集中添加元设备

以下示例显示了如何将磁盘集 oraset 中的元设备 d1 添加到 sczone 区域群集中。该磁盘集的编号为 3

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/oraset/*dsk/d1
clzc:sczone:device> end
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/shared/3/*dsk/d1
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone

如何向区域群集中添加磁盘集 (Solaris Volume Manager)

执行此过程可将整个 Solaris Volume Manager 磁盘集添加到区域群集中。

  1. 成为可托管区域群集的全局群集节点上的超级用户。

    请从全局群集的一个节点中执行此过程的所有步骤。

  2. 确定要添加到区域群集中的磁盘集,并确定它是否处于联机状态。
    phys-schost# cldevicegroup status
  3. 如果要添加的磁盘集未处于联机状态,请将它置于联机状态。
    phys-schost# cldevicegroup online diskset
  4. 确定与要添加的磁盘集相对应的磁盘集编号。
    phys-schost# ls -l /dev/md/diskset
    lrwxrwxrwx  1 root root  8 Jul 22 23:11 /dev/md/diskset -> shared/setnumber 
  5. 添加供区域群集使用的磁盘集。

    您必须对每个 set match= 条目使用单独的 add device 会话。


    注 - 在路径名称中使用星号 (*) 作为通配符。


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/diskset/*dsk/*
    clzc:zoneclustername:device> end
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/md/shared/setnumber/*dsk/*
    clzc:zoneclustername:device> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    match=/dev/md/diskset/*dsk/*

    指定磁盘集的完整逻辑设备路径

    match=/dev/md/shared/N/*dsk/*

    指定磁盘集编号的完整物理设备路径

  6. 重新引导区域群集。

    所做的更改将在区域群集重新引导之后生效。

    phys-schost# clzonecluster reboot zoneclustername

示例 7-10 向区域群集中添加磁盘集

以下示例显示了如何将磁盘集 oraset 添加到 sczone 区域群集中。该磁盘集的编号为 3

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/oraset/*dsk/*
clzc:sczone:device> end
clzc:sczone> add device
clzc:sczone:device> set match=/dev/md/shared/3/*dsk/*
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone

如何向区域群集中添加 DID 设备

执行此过程可向区域群集中添加 DID 设备。

  1. 成为可托管区域群集的全局群集节点上的超级用户。

    请从全局群集的一个节点中执行此过程的所有步骤。

  2. 确定要添加到区域群集中的 DID 设备。

    要添加的设备必须连接到区域群集的所有节点。

    phys-schost# cldevice list -v
  3. 添加供区域群集使用的 DID 设备。

    注 - 在路径名称中使用星号 (*) 作为通配符。


    phys-schost# clzonecluster configure zoneclustername
    clzc:zoneclustername> add device
    clzc:zoneclustername:device> set match=/dev/did/*dsk/dNs*
    clzc:zoneclustername:device> end
    clzc:zoneclustername> verify
    clzc:zoneclustername> commit
    clzc:zoneclustername> exit
    match=/dev/did/*dsk/dNs*

    指定 DID 设备的完整设备路径

  4. 重新引导区域群集。

    所做的更改将在区域群集重新引导之后生效。

    phys-schost# clzonecluster reboot zoneclustername

示例 7-11 向区域群集中添加 DID 设备

以下示例显示了如何将 DID 设备 d10 添加到 sczone 区域群集中。

phys-schost-1# clzonecluster configure sczone
clzc:sczone> add device
clzc:sczone:device> set match=/dev/did/*dsk/d10s*
clzc:sczone:device> end
clzc:sczone> verify
clzc:sczone> commit
clzc:sczone> exit

phys-schost-1# clzonecluster reboot sczone

如何向区域群集中添加原始磁盘设备