本章介绍了 Sun Cluster 软件所适用的各种数据复制方法。您必须了解基于主机和基于存储的数据复制,才能选出最适合您的群集的复制方法组合。
此 Sun Cluster 发行版支持以下数据复制软件:
Sun StorageTek Availability Suite 4
Sun StorEdge Availability Suite 3.2.1
Hitachi Truecopy
EMC Symmetrix Remote Data Facility
在本手册中,除非另有明确说明,否则有关 Sun StorageTek Availability Suite 软件的参考内容同样适用于 Sun StorEdge Availability Suite 软件。
本章包括以下各节:
数据复制是指将数据从主存储设备复制到备份(即辅助设备)中。如果主设备发生故障,您可从辅助设备中获取数据。由此可见,数据复制有助于确保群集的高可用性和容灾性 (disaster tolerance)。
Sun Cluster 支持以下数据复制方法:
基于主机的数据复制可使用特殊的软件在分布于不同地理位置的节点之间实时地复制磁盘卷。远程镜像复制则可将数据从主节点的主卷复制到分散在不同地理位置的辅助节点的主卷上。该软件使用远程镜像位图来跟踪主磁盘上的主卷与辅助磁盘上的主卷之间的差别。
由于基于主机的数据复制无需使用特殊的存储阵列,因此是一种花费不高的数据复制解决方案。该方案使用本地连接的磁盘。然而,因为基于主机的数据复制要使用主机资源来执行数据复制,因此不支持可伸缩应用程序(如 Oracle RAC)。有关在校园群集环境中使用基于主机的数据复制的更多信息,请参见使用基于主机的数据复制。有关在两个或多个群集间使用基于主机的数据复制的更多信息,请参见《Sun Cluster Geographic Edition Data Replication Guide for Sun StorageTek Availability Suite》。
基于存储的数据复制可使用特殊的软件将数据复制工作从群集节点移至存储设备上。这种通过软件实现的重定位可释放一些节点处理能力以响应群集请求。由于这种数据复制支持可伸缩应用程序并可减轻主机负载,因此在校园群集配置中尤为重要。有关在校园群集环境中使用基于存储的数据复制的更多信息,请参见使用基于存储的数据复制。有关在两个或多个群集间使用基于存储的复制以及自动执行此过程的 Sun Cluster GeoEdition 产品的更多信息,请参见《Sun Cluster Geographic Edition Data Replication Guide for Hitachi TrueCopy》。本章最后的示例:使用 Sun StorEdge Availability Suite 或 Sun StorageTek Availability Suite 软件配置基于主机的数据复制提供了这种群集配置的一个完整示例。
本节介绍如何在双工作间校园群集中进行基于主机的数据复制。使用基于主机的数据复制的双工作间配置的定义如下:
两个单独的工作间。
每个工作间都有一个节点和磁盘子系统。
数据在这两个工作间中的磁盘子系统之间进行复制。
至少有一个磁盘子系统连接到两个主机,用作法定设备,并位于其中一个工作间中。
本节的示例仅描述了常规的校园群集配置,并不代表必需的配置或推荐的配置。为简单起见,示例中的图和说明仅关注与理解校园群集配置有关的独特内容。例如,示例没有显示公共网络以太网连接。
在此配置中,如果缺少法定磁盘,系统便无法自动恢复。您必须联系 Sun 服务提供商来帮助恢复。
图 4–1 类似于标准的非校园配置。校园群集最明显的区别在于,其中添加了光纤通道交换机(FC 交换机),从而可从多模光纤切换到单模光纤。
基于存储的数据复制使用存储设备上安装的软件来管理复制。这种软件专门用于特定的存储设备。配置基于存储的数据复制时,请始终参阅存储设备附带的相关文档。
根据所用的软件,您可以在基于存储的数据复制中使用自动故障转移或手动故障转移。Sun Cluster 支持使用 Hitachi TrueCopy 和 EMC Symmetrix Remote Data Facility 软件对复制数据进行手动故障转移和自动故障转移。
本节介绍了校园群集中使用的基于存储的数据复制。图 4–2 显示了在两个存储阵列间复制数据的双工作间配置样例。在此配置中,主存储阵列位于第一个工作间,并在此向两个工作间中的节点提供数据。此外,主存储阵列还为辅助存储阵列提供要复制的数据。
如图 4–2 所示,法定设备位于非复制卷中。复制的卷不能用作法定设备。
在 Sun Cluster 环境中,基于存储的数据复制既可同步执行,也可异步执行,具体情况取决于所用应用程序的类型。
要确保数据的完整性,请使用多路径和正确的 RAID 软件包。如果要使用基于存储的数据复制实现校园群集配置,请注意以下事项:
节点到节点的距离受 Sun Cluster 光纤通道和互连基础结构的限制。要了解当前的限制和支持技术的更多信息,请联系您的 Sun 服务提供商。
不要将复制卷配置为法定设备。应使任何法定设备位于共享的非复制卷中或使用法定服务器。
确保只有数据的主副本对群集节点可见。否则, 卷管理器可能尝试同时访问数据的主副本和辅助副本。
EMC Symmetrix Remote Data Facility 和 Hitachi TrueCopy 允许用户定义复制的设备组。对于复制设备组和 Sun Cluster 全局设备组,必须给定相同的名称,以便可以在节点之间作为一个单元来移动它们。
有关控制数据副本可见性的相关信息,请参阅存储阵列附带的相关文档。
某些应用程序特定数据可能不适合进行异步数据复制。请根据您对应用程序行为的了解来确定在存储设备间复制应用程序特定数据的最佳方式。
如果配置群集进行自动故障转移,请使用同步复制。
有关配置群集进行自动故障转移的说明,请参见管理基于存储的复制设备。
不支持 Oracle Real Application Clusters (RAC)。
不支持 CVM 和 Solaris Volume Manager for Sun Cluster 软件。
与所有校园群集一样,通常,使用基于存储的数据复制的群集在遇到单一故障时无需人为干预。但是,如果使用手动故障转移,又无法进入主存储设备所在的工作间(如 图 4–2 所示),则双节点群集便会出现问题。剩下的节点无法保留法定设备,也无法作为群集成员进行引导。此时,需要对群集进行以下人为干预:
您的 Sun 服务提供商必须重新配置剩下的节点,使之作为群集成员进行引导。
您或您的 Sun 服务提供商必须将一个辅助存储设备的非复制卷配置为法定设备。
您或您的 Sun 服务提供商必须配置剩下的节点,使之将辅助存储设备用作主存储。这种重新配置可能涉及重新构建卷管理器卷、恢复数据或更改应用程序与存储卷的关联。
设置设备组(这些设备组使用 Hitachi TrueCopy 软件进行基于存储的数据复制)时,请遵循以下做法:
请使用同步复制,以避免在主站点发生故障时可能丢失数据。
horcm 配置文件中定义的 Sun Cluster 全局设备组和 TrueCopy 复制组之间应存在一对一的关系。这样,两个组便可以作为一个单元在节点间移动。
不能在同一 复制设备组中混用全局文件系统卷和故障转移文件系统卷。
所有 RAID 管理器实例均应启动并始终处于运行状态。
使用 EMC Symmetrix Remote Data Facility 时,请使用动态设备而非静态设备。静态设备更改复制主副本需要几分钟,而这会影响故障转移时间。
本节提供了一个使用 Sun StorageTek Availability Suite 3.1/3.2 软件或 Sun StorageTek Availability Suite 4.0 软件在群集间配置基于主机的数据复制的完整示例。该示例描绘了一个 NFS 应用程序(详细介绍如何执行各项具体任务)的完整群集配置。所有任务均应在全局区域中执行。该示例不包括其他应用程序或群集配置所需的所有步骤。
如果访问群集节点时使用基于角色的访问控制 (Role-Based Access Control, RBAC) 而非超级用户,请确保使用可对所有 Sun Cluster 命令提供授权的 RBAC 角色。如果用户不是超级用户,需要具备以下 Sun Cluster RBAC 授权才能完成这一系列数据复制过程:
solaris.cluster.modify
solaris.cluster.admin
solaris.cluster.read
有关使用 RBAC 角色的更多信息,请参见第 2 章,Sun Cluster 和 RBAC。有关每个 Sun Cluster 子命令所需 RBAC 授权的信息,请参见 Sun Cluster 手册页。
本节介绍了灾难容错并描述了 Sun StorageTek Availability Suite 软件使用的数据复制方法。
灾难容错是指当主群集发生故障时,系统在备用群集上恢复应用程序的能力。灾难容错基于数据复制和故障转移。故障转移是指资源组或设备组从主群集到辅助群集的自动重新定位。如果主群集发生故障,可以立即在辅助群集上使用应用程序和数据。
本节描述了 Sun StorageTek Availability Suite 软件使用的远程镜像复制方法和实时快照方法。该软件使用 sndradm(1RPC) 和 iiadm(1II) 命令复制数据。
图 4–3 显示了远程镜像复制过程。通过 TCP/IP 连接可以将主磁盘主卷中的数据复制到辅助磁盘的主卷中。该软件使用远程镜像位图来跟踪主磁盘上的主卷与辅助磁盘上的主卷之间的差别。
可以实时同步或异步执行远程镜像复制。可以为同步复制或异步复制单独配置每个群集中的每个卷。
图 4–4 显示了实时快照。每个磁盘主卷中的数据都被复制到同一磁盘的阴影卷中。实时位图记录了主卷和阴影卷之间的区别。数据被复制到阴影卷之后,实时位图将被复位。
图 4–5 说明了此配置示例如何使用远程镜像复制和实时快照功能。
本节提供了在群集之间配置数据复制的指导信息。本节还包含了配置复制资源组和应用程序资源组的提示。为群集配置数据复制时,请使用这些指导信息。
本节包括以下主题:
复制资源组可将 Sun StorageTek Availability Suite 软件控制下的设备组与逻辑主机名资源配置到一起。复制资源组必须具有以下特征:
是一个故障转移资源组
每次只能在一个节点上运行故障转移资源。发生故障转移时,故障转移资源参与故障转移。
逻辑主机名必须由主群集提供。在进行故障转移或切换之后,逻辑主机名则必须由辅助群集提供。使用域名系统 (Domain Name System, DNS) 可将逻辑主机名与群集关联。
具有 HAStoragePlus 资源
复制资源组被切换或故障转移之后,HAStoragePlus 资源将强制执行设备组的切换。设备组被切换之后,Sun Cluster 软件也将强制执行复制资源组的切换。这样,复制资源组和设备组将始终由同一节点配置或控制。
HAStoragePlus 资源中必须定义以下扩展特性:
AffinityOn property = True。在复制资源组切换或故障转移时,此扩展特性使设备组进行切换或故障转移。该特性即称作关联切换。
ZPoolsSearchDir。此扩展属性是使用 ZFS 文件系统时所必需的。
有关 HAStoragePlus 的更多信息,请参见 SUNW.HAStoragePlus(5) 手册页。
例如,devgrp-stor-rg。
同时在主群集和辅助群集上联机
要获得高可用性,必须将应用程序作为应用程序资源组中的资源进行管理。可以将应用程序资源组配置为故障转移应用程序或可伸缩应用程序。
主群集上配置的应用程序资源和应用程序资源组也必须在辅助群集上配置。而且,应用程序资源访问的数据也必须被复制到辅助群集上。
本节提供了配置以下应用程序资源组的指南:
在故障转移应用程序中,一个应用程序一次在一个节点上运行。如果此节点发生故障,应用程序将故障转移到同一群集中的另一个节点。用于故障转移应用程序的资源组必须具有以下特征:
当应用程序资源组发生切换或故障转移时,具有 HAStoragePlus 资源可以强制执行设备组的切换。
设备组与复制资源组和应用程序资源组位于相同的位置。因此,应用程序资源组的切换将强制执行设备组和复制资源组的切换。应用程序资源组 、复制资源组和设备组由同一节点控制。
但是请注意,设备组或复制资源组的切换或故障转移不会引起应用程序资源组的切换或故障转移。
如果已全局安装了应用程序数据,则不需要使 HAStoragePlus 资源存在于应用程序资源组中,但建议使其存在。
如果局部安装了应用程序数据,则需要使 HAStoragePlus 资源存在于应用程序资源组中。
如果没有 HAStoragePlus 资源,应用程序资源组的切换或故障转移就不会触发复制资源组和设备组的切换或故障转移。进行切换或故障转移之后,应用程序资源组、复制资源组和设备组将不再由同一节点控制。
有关 HAStoragePlus 的更多信息,请参见 SUNW.HAStoragePlus(5) 手册页。
必须在主群集上联机而在辅助群集上脱机。
辅助群集成为主群集时,必须使应用程序资源组在辅助群集上联机。
图 4–6 说明了故障转移应用程序中应用程序资源组和复制资源组的配置。
在可伸缩应用程序中,一个应用程序可以在多个节点上运行以创建单一逻辑服务。如果运行可伸缩应用程序的节点发生故障,将不会发生故障转移。该应用程序将在其他节点上继续运行。
如果将可伸缩应用程序作为应用程序资源组中的资源管理,则无需将设备组配置给应用程序资源组。因此,也无需为应用程序资源组创建 HAStoragePlus 资源。
用于可伸缩应用程序的资源组必须具有以下特征:
图 4–7 说明了可伸缩应用程序中的资源配置。
如果主群集出现故障,则必须尽快将应用程序切换到辅助群集。要使辅助群集接任主群集,必须更新 DNS。
DNS 可将客户机与应用程序的逻辑主机名相关联。故障转移或切换之后,必须将映射到主群集的 DNS 删除,同时必须创建一个映射到辅助群集的 DNS。图 4–8 说明了 DNS 如何将客户机映射到群集。
要更新 DNS,请使用 nsupdate 命令。有关信息,请参见 nsupdate(1M) 手册页。有关如何管理故障转移或切换的示例,请参见如何管理故障转移或切换的示例。
检修之后,可以使主群集再次联机。要切回到原始主群集,请执行以下任务:
使主群集与辅助群集同步以确保主卷最新。
更新 DNS 以使客户机能够访问主群集上的应用程序。
表 4–1 列出了本示例中有关如何使用 Sun StorageTek Availability Suite 软件为 NFS 应用程序配置数据复制的相关任务。
表 4–1 任务表:数据复制配置示例
任务 |
指导 |
---|---|
1. 连接和安装群集。 | |
2. 在主群集和辅助群集上,配置设备组、NFS 应用程序文件系统以及资源组。 | |
3. 在主群集和辅助群集上启用数据复制。 | |
4. 执行数据复制。 | |
5. 检验数据复制配置。 |
图 4–9 说明了配置示例所使用的群集配置。配置示例中的辅助群集包含一个节点,但是可以使用其他群集配置。
表 4–2 汇总了此配置示例中需要使用的硬件和软件。在安装 Sun StorageTek Availability Suite 软件和修补程序之前,必须先在群集节点上安装 Solaris OS、Sun Cluster 软件和卷管理器软件。
表 4–2 需要的硬件和软件
硬件和软件 |
要求 |
---|---|
节点硬件 |
所有使用 Solaris OS 的服务器均支持 Sun StorageTek Availability Suite 软件。 有关使用哪个硬件的信息,请参见《Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS》。 |
磁盘空间 |
大约 15 兆字节。 |
Solaris OS |
Sun Cluster 软件支持的 Solaris 操作系统版本。 所有节点必须使用相同版本的 Solaris OS。 有关安装信息,请参见《Sun Cluster 软件安装指南(适用于 Solaris OS)》。 |
Sun Cluster 软件 |
Sun Cluster 3.2 2/08 软件。 有关安装信息,请参见《Sun Cluster 软件安装指南(适用于 Solaris OS)》。 |
卷管理器软件 |
Solstice DiskSuite 或 Solaris Volume Manager 软件或 VERITAS 卷管理器 (VxVM) 软件。 所有节点必须使用相同版本的卷管理器软件。 有关安装信息,请参见《Sun Cluster 软件安装指南(适用于 Solaris OS)》中的第 4 章 “配置 Solaris Volume Manager 软件”和《Sun Cluster 软件安装指南(适用于 Solaris OS)》中的第 5 章 “安装和配置 VERITAS 卷管理器”。 |
Sun StorageTek Availability Suite 软件 |
有关如何安装该软件的信息,请参见 Sun StorageTek Availability Suite 发行版或 Sun StorageTek Availability Suite 软件的安装手册:
|
Sun StorageTek Availability Suite 软件修补程序 |
有关最新修补程序的信息,请参见 http://www.sunsolve.com。 |
本节介绍如何为 NFS 应用程序配置设备组和资源组。有关其他信息,请参见配置复制资源组和配置应用程序资源组。
本节包含以下过程:
下表列出了为示例配置创建的组和资源的名称。
表 4–3 配置示例中的组和资源的摘要
组或资源 |
名称 |
描述 |
---|---|---|
设备组 |
devgrp |
设备组 |
复制资源组和资源 |
devgrp-stor-rg |
复制资源组 |
lhost-reprg-prim、lhost-reprg-sec |
主群集和辅助群集上复制资源组的逻辑主机名 |
|
devgrp-stor |
复制资源组的 HAStoragePlus 资源 |
|
应用程序资源组和资源 |
nfs-rg |
应用程序资源组 |
lhost-nfsrg-prim、lhost-nfsrg-sec |
主群集和辅助群集上应用程序资源组的逻辑主机名 |
|
nfs-dg-rs |
应用程序的 HAStoragePlus 资源 |
|
nfs-rs |
NFS 资源 |
除 devgrp-stor-rg 外,组和资源的名称均为示例名称,可根据需要更改。复制资源组的名称必须使用以下格式:devicegroupname-stor-rg。
此配置示例使用的是 VxVM 软件。有关 Solstice DiskSuite 或 Solaris Volume Manager 软件的信息,请参见《Sun Cluster 软件安装指南(适用于 Solaris OS)》中的第 4 章 “配置 Solaris Volume Manager 软件”。
下图说明了在设备组中创建的卷。
在此过程中定义的卷不得包含磁盘标签专用区域,例如柱面 0。VxVM 软件可自动应付该约束。
确保您已完成以下任务:
阅读以下各节中的指导信息和要求:
按照连接安装群集中的描述,安装主群集和辅助群集。
作为超级用户或使用一个可提供 solaris.cluster.modify RBAC 授权的角色来访问 nodeA。
节点 nodeA 是主群集的第一个节点。有关哪个节点是 nodeA 的提示,请参见图 4–9。
在 nodeA 上创建一个磁盘组,使其包含卷 1 (vol01) 至卷 4 (vol04)。
有关使用 VxVM 软件来配置磁盘组的信息,请参见《Sun Cluster 软件安装指南(适用于 Solaris OS)》中的第 5 章 “安装和配置 VERITAS 卷管理器”。
配置磁盘组以创建设备组。
nodeA# cldevicegroup create -t vxvm -n nodeA nodeB devgrp |
该设备组名为 devgrp。
为该设备组创建文件系统。
nodeA# newfs /dev/vx/rdsk/devgrp/vol01 < /dev/null nodeA# newfs /dev/vx/rdsk/devgrp/vol02 < /dev/null |
用作原始卷的 vol03 或 vol04 不需要文件系统。
请转到如何在辅助群集上配置设备组。
请完成如何在主群集上配置设备组这一过程。
作为超级用户或使用一个可提供 solaris.cluster.modify RBAC 授权的角色来访问 nodeC。
在包含四个卷的 nodeC 上创建磁盘组,这四个卷为:卷 1 (vol01) 至卷 4 (vol04)。
配置磁盘组以创建设备组。
nodeC# cldevicegroup create -t vxvm -n nodeC devgrp |
该设备组名为 devgrp。
为该设备组创建文件系统。
nodeC# newfs /dev/vx/rdsk/devgrp/vol01 < /dev/null nodeC# newfs /dev/vx/rdsk/devgrp/vol02 < /dev/null |
用作原始卷的 vol03 或 vol04 不需要文件系统。
请完成如何在辅助群集上配置设备组这一过程。
在 nodeA 和 nodeB 上,成为超级用户或使用一个可提供 solaris.cluster.admin RBAC 授权的角色。
在 nodeA 和 nodeB 上,为 NFS 文件系统创建一个挂载点目录。
例如:
nodeA# mkdir /global/mountpoint |
在 nodeA 和 nodeB 上,对要在挂载点上自动挂载的主卷进行配置。
将下面的文本添加或替换到 nodeA 和 nodeB 的 /etc/vfstab 文件中。该文本必须在一行。
/dev/vx/dsk/devgrp/vol01 /dev/vx/rdsk/devgrp/vol01 \ /global/mountpoint ufs 3 no global,logging |
有关设备组中使用的卷名称和卷编号的提示,请参见图 4–10。
在 nodeA 上,为 Sun Cluster HA for NFS 数据服务使用的文件系统信息创建卷。
nodeA# vxassist -g devgrp make vol05 120m disk1 |
卷 5 (vol05) 包含 Sun Cluster HA for NFS 数据服务使用的文件系统信息。
在 nodeA 上,使设备组与 Sun Cluster 软件重新同步。
nodeA# cldevicegroup sync devgrp |
在 nodeA上,为 vol05 创建文件系统。
nodeA# newfs /dev/vx/rdsk/devgrp/vol05 |
在 nodeA 和 nodeB 上,为 vol05 创建一个挂载点。
以下示例将创建挂载点 /global/etc。
nodeA# mkdir /global/etc |
在 nodeA 和 nodeB 上,将 vol05 配置为在安装点上自动安装。
将下面的文本添加或替换到 nodeA 和 nodeB 的 /etc/vfstab 文件中。该文本必须在一行。
/dev/vx/dsk/devgrp/vol05 /dev/vx/rdsk/devgrp/vol05 \ /global/etc ufs 3 yes global,logging |
在 nodeA 上安装 vol05。
nodeA# mount /global/etc |
使远程系统可以存取 vol05。
请完成如何在主群集上为 NFS 应用程序配置文件系统这一过程。
在 nodeC 上,成为超级用户或使用一个可提供 solaris.cluster.admin RBAC 授权的角色。
在 nodeC 上,为 NFS 文件系统创建一个挂载点目录。
例如:
nodeC# mkdir /global/mountpoint |
在 nodeC 上,将主卷配置为在安装点上自动安装。
将下面的文本添加或替换到 nodeC 的 /etc/vfstab 文件中。该文本必须在一行。
/dev/vx/dsk/devgrp/vol01 /dev/vx/rdsk/devgrp/vol01 \ /global/mountpoint ufs 3 no global,logging |
在 nodeC 上,为 Sun Cluster HA for NFS 数据服务使用的文件系统信息创建卷。
nodeC# vxassist -g devgrp make vol05 120m disk1 |
卷 5 (vol05) 包含 Sun Cluster HA for NFS 数据服务使用的文件系统信息。
在 nodeC 上,使设备组与 Sun Cluster 软件重新同步。
nodeC# cldevicegroup sync devgrp |
在 nodeC上,为 vol05 创建文件系统。
nodeC# newfs /dev/vx/rdsk/devgrp/vol05 |
在 nodeC 上,为 vol05 创建安装点。
以下示例将创建挂载点 /global/etc。
nodeC# mkdir /global/etc |
在 nodeC 上,将 vol05 配置为在安装点上自动安装。
将下面的文本添加或替换到 nodeC 的 /etc/vfstab 文件中。该文本必须在一行。
/dev/vx/dsk/devgrp/vol05 /dev/vx/rdsk/devgrp/vol05 \ /global/etc ufs 3 yes global,logging |
在 nodeC 上安装 vol05。
nodeC# mount /global/etc |
使远程系统可以存取 vol05。
请转到如何在主群集上创建复制资源组。
请完成如何在辅助群集上为 NFS 应用程序配置文件系统这一过程。
作为超级用户或使用一个可提供 solaris.cluster.modify、solaris.cluster.admin 和 solaris.cluster.read RBAC 授权的角色来访问 nodeA。
注册 SUNW.HAStoragePlus 资源类型。
nodeA# clresourcetype register SUNW.HAStoragePlus |
为设备组创建一个复制资源组。
nodeA# clresourcegroup create -n nodeA,nodeB devgrp-stor-rg |
指定群集节点 nodeA 和 nodeB 可控制该复制资源组。
复制资源组的名称。在此名称中,devgrp 指定了设备组的名称。
将 SUNW.HAStoragePlus 资源添加到复制资源组。
nodeA# clresource create -g devgrp-stor-rg -t SUNW.HAStoragePlus \ -p GlobalDevicePaths=devgrp \ -p AffinityOn=True \ devgrp-stor |
指定资源将被添加到哪一个资源组。
指定 SUNW.HAStoragePlus 资源必须为 -x GlobalDevicePaths= 定义的全局设备和群集文件系统执行关联切换。因此,复制资源组发生故障转移或被切换后,相关的设备组也将被切换。
有关这些扩展属性的更多信息,请参见 SUNW.HAStoragePlus(5) 手册页。
给复制资源组添加逻辑主机名资源。
nodeA# clreslogicalhostname create -g devgrp-stor-rg lhost-reprg-prim |
主群集上复制资源组的逻辑主机名为 lhost-reprg-prim。
启用资源、管理资源组并使资源组联机。
nodeA# clresourcegroup online -e -M -n nodeA devgrp-stor-rg |
启用相关联的资源。
管理资源组。
指定在哪个节点上使资源组联机。
检验资源组是否处于联机状态。
nodeA# clresourcegroup status devgrp-stor-rg |
检查资源组状态字段以确认复制资源组在 nodeA 上处于联机状态。
请转到如何在辅助群集上创建复制资源组。
请完成如何在主群集上创建复制资源组这一过程。
作为超级用户或使用一个可提供 solaris.cluster.modify、solaris.cluster.admin 和 solaris.cluster.read RBAC 授权的角色来访问 nodeC。
将 SUNW.HAStoragePlus 注册为资源类型。
nodeC# clresourcetype register SUNW.HAStoragePlus |
为设备组创建一个复制资源组。
nodeC# clresourcegroup create -n nodeC devgrp-stor-rg |
创建资源组。
指定资源组的节点列表。
设备组的名称。
复制资源组的名称。
将 SUNW.HAStoragePlus 资源添加到复制资源组。
nodeC# clresource create \ -t SUNW.HAStoragePlus \ -p GlobalDevicePaths=devgrp \ -p AffinityOn=True \ devgrp-stor |
创建资源。
指定资源类型。
指定 Sun StorageTek Availability Suite 软件所依赖的扩展属性。
指定 SUNW.HAStoragePlus 资源必须为 -x GlobalDevicePaths= 定义的全局设备和群集文件系统执行关联切换。因此,复制资源组发生故障转移或被切换后,相关的设备组也将被切换。
复制资源组的 HAStoragePlus 资源。
有关这些扩展属性的更多信息,请参见 SUNW.HAStoragePlus(5) 手册页。
给复制资源组添加逻辑主机名资源。
nodeC# clreslogicalhostname create -g devgrp-stor-rg lhost-reprg-sec |
主群集上复制资源组的逻辑主机名为 lhost-reprg-sec。
启用资源、管理资源组并使资源组联机。
nodeC# clresourcegroup online -e -M -n nodeC devgrp-stor-rg |
联机。
启用相关联的资源。
管理资源组。
指定在哪个节点上使资源组联机。
检验资源组是否处于联机状态。
nodeC# clresourcegroup status devgrp-stor-rg |
检查资源组状态字段以确认复制资源组在 nodeC 上处于联机状态。
此过程描述了如何为 NFS 创建应用程序资源组。此过程是特定于该应用程序的,且不能用于其他类型的应用程序。
请完成如何在辅助群集上创建复制资源组这一过程。
作为超级用户或使用一个可提供 solaris.cluster.modify、solaris.cluster.admin 和 solaris.cluster.read RBAC 授权的角色来访问 nodeA。
将 SUNW.nfs 注册为资源类型。
nodeA# clresourcetype register SUNW.nfs |
如果尚未将 SUNW.HAStoragePlus 注册为资源类型,则将其注册。
nodeA# clresourcetype register SUNW.HAStoragePlus |
为设备组 devgrp 创建一个应用程序资源组。
nodeA# clresourcegroup create \ -p Pathprefix=/global/etc \ -p Auto_start_on_new_cluster=False \ -p RG_dependencies=devgrp-stor-rg \ nfs-rg |
指定组中资源可将管理文件写入哪个目录。
指定不自动启动应用程序资源组。
指定应用程序资源组所依赖的资源组。在此示例中,应用程序资源组依赖于复制资源组 devgrp-stor-rg。
如果应用程序资源组被切换到新的主节点上,复制资源组也会被自动切换。但是,如果复制资源组被切换到新的主节点上,必须将应用程序资源组手动切换。
应用程序资源组的名称
将 SUNW.HAStoragePlus 资源添加到应用程序资源组中。
nodeA# clresource create -g nfs-rg \ -t SUNW.HAStoragePlus \ -p FileSystemMountPoints=/global/mountpoint \ -p AffinityOn=True \ nfs-dg-rs |
创建资源。
指定资源将被添加到哪个资源组。
指定资源是 SUNW.HAStoragePlus 类型。
指定文件系统的装载点为全局装载点。
指定应用程序资源必须对 -p GlobalDevicePaths= 所定义的全局设备和群集文件系统执行关联切换。因此,应用程序资源组发生故障转移或切换后,相关的设备组也将被切换。
用于 NFS 应用程序的 HAStoragePlus 资源的名称。
有关这些扩展属性的更多信息,请参见 SUNW.HAStoragePlus(5) 手册页。
给应用程序资源组添加逻辑主机名资源。
nodeA# clreslogicalhostname create -g nfs-rg \ lhost-nfsrg-prim |
主群集上应用程序资源组的逻辑主机名为 lhost-nfsrg-prim。
启用资源、管理应用程序资源组并使应用程序资源组联机。
检验应用程序资源组是否处于联机状态。
nodeA# clresourcegroup status |
检查资源组状态字段,以确定 nodeA 和 nodeB 的应用程序资源组是否处于联机状态。
请完成如何在主群集上创建 NFS 应用程序资源组这一过程。
作为超级用户或使用一个可提供 solaris.cluster.modify、solaris.cluster.admin 和 solaris.cluster.read RBAC 授权的角色来访问 nodeC。
将 SUNW.nfs 注册为资源类型。
nodeC# clresourcetype register SUNW.nfs |
如果尚未将 SUNW.HAStoragePlus 注册为资源类型,则将其注册。
nodeC# clresourcetype register SUNW.HAStoragePlus |
为设备组创建一个应用程序资源组。
nodeC# clresourcegroup create \ -p Pathprefix=/global/etc \ -p Auto_start_on_new_cluster=False \ -p RG_dependencies=devgrp-stor-rg \ nfs-rg |
创建资源组。
指定资源组的属性。
指定组中资源可以在哪个目录中写入管理文件。
指定不自动启动应用程序资源组。
指定应用程序资源组所依赖的资源组。在本示例中,应用程序资源组依赖复制资源组。
如果应用程序资源组被切换到新的主节点上,复制资源组也会被自动切换。但是,如果复制资源组被切换到新的主节点上,必须将应用程序资源组手动切换。
应用程序资源组的名称
将 SUNW.HAStoragePlus 资源添加到应用程序资源组中。
nodeC# clresource create -g nfs-rg \ -t SUNW.HAStoragePlus \ -p FileSystemMountPoints=/global/mountpoint \ -p AffinityOn=True \ nfs-dg-rs |
创建资源。
指定资源将被添加到哪个资源组。
指定资源是 SUNW.HAStoragePlus 类型。
指定资源的属性。
指定文件系统的装载点为全局装载点。
指定应用程序资源必须为 -x GlobalDevicePaths= 定义的全局设备和群集文件系统执行关联切换。因此,应用程序资源组发生故障转移或切换后,相关的设备组也将被切换。
用于 NFS 应用程序的 HAStoragePlus 资源的名称。
有关这些扩展属性的更多信息,请参见 SUNW.HAStoragePlus(5) 手册页。
给应用程序资源组添加逻辑主机名资源。
nodeC# clreslogicalhostname create -g nfs-rg \ lhost-nfsrg-sec |
辅助群集上应用程序资源组的逻辑主机名为 lhost-nfsrg-sec。
向应用程序资源组中添加 NFS 资源。
nodeC# clresource create -g nfs-rg \ -t SUNW.nfs -p Resource_dependencies=nfs-dg-rs nfs-rg |
确保应用程序资源组不在 nodeC 上联机。
nodeC# clresource disable -n nodeC nfs-rs nodeC# clresource disable -n nodeC nfs-dg-rs nodeC# clresource disable -n nodeC lhost-nfsrg-sec nodeC# clresourcegroup online -n "" nfs-rg |
由于 Auto_start_on_new_cluster=False,重新引导之后资源组一直脱机。
如果在主群集上装载全局卷,应从辅助群集上卸载全局卷。
nodeC# umount /global/mountpoint |
如果在辅助群集上装载卷,同步将失败。
请转到如何启用数据复制的示例。
本节描述了如何为示例配置启用数据复制。本节使用了 Sun StorageTek Availability Suite 软件的命令 sndradm 和 iiadm。有关这些命令的更多信息,请参见 Sun StorageTek Availability 文档。
本节包含以下过程:
作为超级用户或使用一个可提供 solaris.cluster.read RBAC 授权的角色来访问 nodeA。
刷新所有事务。
nodeA# lockfs -a -f |
确认逻辑主机名 lhost-reprg-prim 和 lhost-reprg-sec 处于联机状态。
nodeA# clresourcegroup status nodeC# clresourcegroup status |
检查资源组的状态字段。
启用从主群集到辅助群集的远程镜像复制。
此步骤将主群集上的主卷复制到辅助群集上的主卷。此外,此步骤还复制到 vol04 上的远程镜像位图。
如果主群集和辅助群集不同步,请运行以下命令:
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
如果主群集和辅助群集同步,请运行以下命令:
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -E lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -E lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
启用自动同步。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -a on lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -a on lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
该步骤启用了自动同步。如果自动同步的活动状态被设置为 on 时,当系统重新引导或发生故障时,将重新同步卷集。
检验群集是否处于记录模式。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -P |
输出应与以下所示类似:
/dev/vx/rdsk/devgrp/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01 autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: logging |
在记录模式下状态为 logging,自动同步的活动状态为 off。当磁盘上的数据卷被写入时,即更新同一磁盘上的位图文件。
启用实时快照。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/iiadm -e ind \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 nodeA# /usr/opt/SUNWesm/sbin/iiadm -w \ /dev/vx/rdsk/devgrp/vol02 |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/iiadm -e ind \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 nodeA# /usr/sbin/iiadm -w \ /dev/vx/rdsk/devgrp/vol02 |
此步骤将主群集上的主卷复制到相同群集上的阴影卷中。主卷、阴影卷和实时位图卷必须在同一设备组中。在此示例中,主卷为 vol01,阴影卷为 vol02,实时位图卷为 vol03。
将实时快照连接到远程镜像集。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -I a \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -I a \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 |
该步骤使实时快照与远程镜像卷集相关联。Sun StorageTek Availability Suite 软件可以确保在进行远程镜像复制之前进行实时快照。
请转到如何在辅助群集上启用复制。
请完成如何在主群集上启用复制这一过程。
以超级用户身份访问 nodeC。
刷新所有事务。
nodeC# lockfs -a -f |
启用从主群集到辅助群集的远程镜像复制。
对于 Sun StorEdge Availability Suite 软件:
nodeC# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeC# /usr/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
主群集检测到存在辅助群集并启动同步。有关群集状态的信息,请参阅系统日志文件 /var/opt/SUNWesm/ds.log(对于 Sun StorEdge Availability Suite)或 /var/adm(对于 Sun StorageTek Availability Suite)。
启用独立实时快照。
对于 Sun StorEdge Availability Suite 软件:
nodeC# /usr/opt/SUNWesm/sbin/iiadm -e ind \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 nodeC# /usr/opt/SUNWesm/sbin/iiadm -w \ /dev/vx/rdsk/devgrp/vol02 |
对于 Sun StorageTek Availability Suite 软件:
nodeC# /usr/sbin/iiadm -e ind \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 nodeC# /usr/sbin/iiadm -w \ /dev/vx/rdsk/devgrp/vol02 |
将实时快照连接到远程镜像集。
对于 Sun StorEdge Availability Suite 软件:
nodeC# /usr/opt/SUNWesm/sbin/sndradm -I a \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 |
对于 Sun StorageTek Availability Suite 软件:
nodeC# /usr/sbin/sndradm -I a \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 |
请转到如何执行数据复制的示例。
本节描述了如何为示例配置执行数据复制。本节使用了 Sun StorageTek Availability Suite 软件的命令 sndradm 和 iiadm。有关这些命令的更多信息,请参见 Sun StorageTek Availability Suite 文档。
本节包含以下过程:
在此过程中,将主磁盘的主卷复制到辅助磁盘上的主卷。主卷为 vol01,远程镜像位图卷为 vol04。
以超级用户身份访问 nodeA。
检验群集是否处于记录模式。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -P |
输出应与以下所示类似:
/dev/vx/rdsk/devgrp/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01 autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: logging |
在记录模式下状态为 logging,自动同步的活动状态为 off。当磁盘上的数据卷被写入时,即更新同一磁盘上的位图文件。
刷新所有事务。
nodeA# lockfs -a -f |
将 nodeA 的主卷复制到 nodeC 的主卷上。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -m lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -m lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
完成复制和同步卷之前,请等待。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -w lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -w lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
确认群集是否处于复制模式。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -P |
输出应与以下所示类似:
/dev/vx/rdsk/devgrp/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01 autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: replicating |
在复制模式中状态为 replicating,而自动同步的活动状态为 on。对主卷进行写入时,由 Sun StorageTek Availability Suite 软件对辅助卷进行更新。
请转到如何执行实时快照。
在此过程中,实时快照用于将主群集的阴影卷同步到主群集的主卷中。主卷为 vol01,位图卷为 vol04,阴影卷为 vol02。
请完成如何执行远程镜像复制这一过程。
作为超级用户或使用一个可提供 solaris.cluster.modify 和 solaris.cluster.admin RBAC 授权的角色来访问 nodeA。
禁用 nodeA 上运行的资源。
nodeA# clresource disable -n nodeA nfs-rs |
将主群集更改为日志模式。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
当磁盘上的数据卷被写入时,即更新同一磁盘上的位图文件。系统不会执行任何复制操作。
使主群集的阴影卷与主群集的主卷同步。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02 nodeA# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02 |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02 nodeA# /usr/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02 |
使辅助群集的阴影卷与辅助群集的主卷同步。
对于 Sun StorEdge Availability Suite 软件:
nodeC# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02 nodeC# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02 |
对于 Sun StorageTek Availability Suite 软件:
nodeC# /usr/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02 nodeC# /usr/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02 |
重新启动 nodeA 上的应用程序。
nodeA# clresource enable -n nodeA nfs-rs |
使辅助卷与主卷重新同步。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
请转到如何检验是否正确配置了复制。
请完成如何执行实时快照这一过程。
作为超级用户或使用一个可提供 solaris.cluster.admin RBAC 授权的角色来访问 nodeA 和 nodeC。
检验主群集是否处于复制模式并已启用自动同步。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -P |
输出应与以下所示类似:
/dev/vx/rdsk/devgrp/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01 autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: replicating |
在复制模式中状态为 replicating,而自动同步的活动状态为 on。对主卷进行写入时,由 Sun StorageTek Availability Suite 软件对辅助卷进行更新。
如果主群集未处于复制模式下,则使其处于复制模式下。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
在客户机上创建目录。
将目录挂载到主群集上的应用程序中,并显示已挂载的目录。
将目录挂载到辅助群集上的应用程序,并显示已挂载的目录。
从主群集上的应用程序卸载该目录。
client-machine# umount /dir |
使主群集上的应用程序资源组脱机。
nodeA# clresource disable -n nodeA nfs-rs nodeA# clresource disable -n nodeA nfs-dg-rs nodeA# clresource disable -n nodeA lhost-nfsrg-prim nodeA# clresourcegroup online -n "" nfs-rg |
将主群集更改为日志模式。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
当磁盘上的数据卷被写入时,即更新同一磁盘上的位图文件。系统不会执行任何复制操作。
确保 PathPrefix 目录可用。
nodeC# mount | grep /global/etc |
使辅助群集上的应用程序资源组联机。
nodeC# clresourcegroup online -n nodeC nfs-rg |
以超级用户身份访问客户机。
您将看到类似下面的提示:
client-machine# |
将您在步骤 4 中创建的目录挂载到辅助群集上的应用程序中。
client-machine# mount -o rw lhost-nfsrg-sec:/global/mountpoint /dir |
显示已挂载的目录。
client-machine# ls /dir |
使主群集上的应用程序返回到已装载目录。
使应用程序资源组在辅助群集上脱机。
nodeC# clresource disable -n nodeC nfs-rs nodeC# clresource disable -n nodeC nfs-dg-rs nodeC# clresource disable -n nodeC lhost-nfsrg-sec nodeC# clresourcegroup online -n "" nfs-rg |
确保从辅助群集上卸载全局卷。
nodeC# umount /global/mountpoint |
使应用程序资源组在主群集上联机。
nodeA# clresourcegroup online -n nodeA nfs-rg |
将主群集更改为复制模式。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对主卷进行写入时,由 Sun StorageTek Availability Suite 软件对辅助卷进行更新。
本节描述了如何引发切换和如何将应用程序传送到辅助群集。进行切换或故障转移之后,请更新 DNS 条目。有关其他信息,请参见管理故障转移或切换指南。
本节包含以下过程:
作为超级用户或使用一个可提供 solaris.cluster.admin RBAC 授权的角色来访问 nodeA 和 nodeC。
将主群集更改为日志模式。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对磁盘上的数据卷进行写入时,将更新同一设备组上的位图卷。系统不会执行任何复制操作。
确认主群集和辅助群集处于记录模式并取消自动同步。
在 nodeA 上,确认模式和设置:
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -P |
输出应与以下所示类似:
/dev/vx/rdsk/devgrp/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01 autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag: devgrp, state: logging |
在 nodeC 上,确认模式和设置:
对于 Sun StorEdge Availability Suite 软件:
nodeC# /usr/opt/SUNWesm/sbin/sndradm -P |
对于 Sun StorageTek Availability Suite 软件:
nodeC# /usr/sbin/sndradm -P |
输出应与以下所示类似:
/dev/vx/rdsk/devgrp/vol01 <- lhost-reprg-prim:/dev/vx/rdsk/devgrp/vol01 autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag: devgrp, state: logging |
nodeA 和 nodeC 的状态应为 logging,而自动同步的活动状态应为 off。
确认辅助群集已准备好接任主群集。
nodeC# fsck -y /dev/vx/rdsk/devgrp/vol01 |
切换到辅助群集。
nodeC# clresourcegroup switch -n nodeC nfs-rg |
请转到如何更新 DNS 条目。
有关 DNS 如何将客户机映射到群集的说明,请参见图 4–8。
请完成如何引发切换这一过程。
启动 nsupdate 命令。
有关信息,请参见 nsupdate(1M) 手册页。
针对两个群集(主群集和辅助群集),删除当前在应用程序资源组的逻辑主机名与群集 IP 地址之间存在的 DNS 映射。
> update delete lhost-nfsrg-prim A > update delete lhost-nfsrg-sec A > update delete ipaddress1rev.in-addr.arpa ttl PTR lhost-nfsrg-prim > update delete ipaddress2rev.in-addr.arpa ttl PTR lhost-nfsrg-sec |
主群集的 IP 地址,按照逆序。
辅助群集的 IP 地址,按照逆序。
有效时间(以秒为单位)。典型值为 3600。
针对两个群集(主群集和辅助群集),创建应用程序资源组的逻辑主机名与群集 IP 地址之间的新 DNS 映射。
将主逻辑主机名映射到辅助群集的 IP 地址,将辅助逻辑主机名映射到主群集的 IP 地址。
> update add lhost-nfsrg-prim ttl A ipaddress2fwd > update add lhost-nfsrg-sec ttl A ipaddress1fwd > update add ipaddress2rev.in-addr.arpa ttl PTR lhost-nfsrg-prim > update add ipaddress1rev.in-addr.arpa ttl PTR lhost-nfsrg-sec |
辅助群集的 IP 地址,按照正序。
主群集的 IP 地址,按照正序。