本附录提供了不使用 Sun Cluster Geographic Edition 的基于主机的复制的替代方法。Sun 建议您使用 Sun Cluster Geographic Edition 进行基于主机的复制,以简化群集内基于主机的复制的配置和操作。请参见了解数据复制。
本附录中的示例说明了如何使用 Sun StorageTek Availability Suite 3.1 或 3.2 软件或 Sun StorageTek Availability Suite 4.0 软件配置群集之间基于主机的数据复制。该示例描绘了一个 NFS 应用程序(详细介绍如何执行各项具体任务)的完整群集配置。所有任务都应该在全局群集投票节点中执行。该示例不包括其他应用程序或群集配置所需的所有步骤。
如果访问群集节点时使用基于角色的访问控制 (Role-Based Access Control, RBAC) 而非超级用户,请确保使用可对所有 Sun Cluster 命令提供授权的 RBAC 角色。如果用户不是超级用户,则需要具备以下 Sun Cluster RBAC 授权才能完成这一系列数据复制过程:
solaris.cluster.modify
solaris.cluster.admin
solaris.cluster.read
有关使用 RBAC 角色的更多信息,请参见《系统管理指南:安全性服务》。有关每个 Sun Cluster 子命令所需 RBAC 授权的信息,请参见 Sun Cluster 手册页。
本节介绍了容灾性,并且描述了 Sun StorageTek Availability Suite 软件使用的数据复制方法。
容灾性是指当主群集发生故障时,系统在备用群集上恢复应用程序的能力。容灾性基于数据复制和故障转移。故障转移是指资源组或设备组从主群集到辅助群集的自动重新定位。如果主群集发生故障,可以立即在辅助群集上使用应用程序和数据。
本节描述了 Sun StorageTek Availability Suite 软件使用的远程镜像复制方法和实时快照方法。该软件使用 sndradm(1RPC) 和 iiadm(1II) 命令复制数据。
图 A–1 显示了远程镜像复制。通过 TCP/IP 连接可以将主磁盘主卷中的数据复制到辅助磁盘的主卷中。该软件使用远程镜像位图来跟踪主磁盘上的主卷与辅助磁盘上的主卷之间的差别。
可以实时同步或异步执行远程镜像复制。可以为同步复制或异步复制单独配置每个群集中的每个卷。
图 A–2 显示了实时快照。每个磁盘主卷中的数据都被复制到同一磁盘的阴影卷中。实时位图记录了主卷和阴影卷之间的区别。数据被复制到阴影卷之后,实时位图将被复位。
图 A–3 说明了此配置示例如何使用远程镜像复制和实时快照功能。
本节提供了有关配置群集间数据复制的准则。本节还包含了配置复制资源组和应用程序资源组的提示。为群集配置数据复制时,请使用这些指导信息。
本节包括以下主题:
复制资源组使用逻辑主机名资源将设备组配置到 Sun StorageTek Availability Suite 软件控制之下。复制资源组必须具有以下特征:
是一个故障转移资源组
每次只能在一个节点上运行故障转移资源。发生故障转移时,故障转移资源参与故障转移。
逻辑主机名必须由主群集托管。在进行故障转移之后,逻辑主机名则必须由辅助群集托管。使用域名系统 (Domain Name System, DNS) 可将逻辑主机名与群集关联。
具有 HAStoragePlus 资源
复制资源组被切换或故障转移之后,HAStoragePlus 资源将强制执行设备组的故障转移。设备组被切换之后,Sun Cluster 软件还将强制执行复制资源组的故障转移。这样,复制资源组和设备组将始终由同一节点配置或控制。
HAStoragePlus 资源中必须定义以下扩展特性:
AffinityOn 属性 = True。在复制资源组切换或故障转移时,此扩展特性使设备组进行切换或故障转移。该特性称作关联切换。
ZPoolsSearchDir。此扩展属性是使用 ZFS 文件系统时所必需的。
有关 HAStoragePlus 的更多信息,请参见 SUNW.HAStoragePlus(5) 手册页。
例如,devgrp-stor-rg。
同时在主群集和辅助群集上联机
要具有较高的可用性,应用程序必须以应用程序资源组中的资源形式接受管理。可以将应用程序资源组配置为故障转移应用程序或可伸缩应用程序。
主群集上配置的应用程序资源和应用程序资源组也必须在辅助群集上配置。而且,应用程序资源访问的数据也必须被复制到辅助群集上。
本节提供了配置以下应用程序资源组的指南:
在故障转移应用程序中,一个应用程序一次在一个节点上运行。如果此节点发生故障,应用程序将故障转移到同一群集中的另一个节点。用于故障转移应用程序的资源组必须具有以下特征:
当应用程序资源组发生切换或故障转移时,具有 HAStoragePlus 资源可以强制执行设备组的故障转移
设备组与复制资源组和应用程序资源组位于相同的位置。因此,应用程序资源组的故障转移将强制执行设备组和复制资源组的故障转移。应用程序资源组 、复制资源组和设备组由同一节点控制。
但是请注意,设备组或复制资源组的故障转移不会引起应用程序资源组的故障转移。
如果已全局安装了应用程序数据,则不需要使 HAStoragePlus 资源存在于应用程序资源组中,但建议使其存在。
如果局部安装了应用程序数据,则需要使 HAStoragePlus 资源存在于应用程序资源组中。
如果没有 HAStoragePlus 资源,应用程序资源组的故障转移就不会触发复制资源组和设备组的故障转移。进行故障转移之后,应用程序资源组、复制资源组和设备组将不再由同一节点控制。
有关 HAStoragePlus 的更多信息,请参见 SUNW.HAStoragePlus(5) 手册页。
必须在主群集上联机而在辅助群集上脱机。
辅助群集成为主群集时,必须使应用程序资源组在辅助群集上联机。
图 A–4 说明了故障转移应用程序中应用程序资源组和复制资源组的配置。
在可伸缩应用程序中,一个应用程序可以在多个节点上运行以创建单一逻辑服务。如果运行可伸缩应用程序的节点发生故障,将不会发生故障转移。该应用程序将在其他节点上继续运行。
如果将可伸缩应用程序作为应用程序资源组中的资源管理,则无需将设备组配置给应用程序资源组。因此,也无需为应用程序资源组创建 HAStoragePlus 资源。
用于可伸缩应用程序的资源组必须具有以下特征:
图 A–5 说明了可伸缩应用程序中的资源组配置。
如果主群集发生故障,必须尽快将应用程序切换到辅助群集。要使辅助群集接任主群集,必须更新 DNS。
DNS 可将客户机与应用程序的逻辑主机名相关联。故障转移之后,必须将到主群集的 DNS 映射删除,同时必须创建一个到辅助群集的 DNS 映射。图 A–6 说明了 DNS 如何将客户机映射到群集。
要更新 DNS,请使用 nsupdate 命令。有关信息,请参见 nsupdate(1M) 手册页。有关说明如何管理故障转移的示例,请参见关于如何管理故障转移的示例。
在进行修复之后,可以使主群集重新联机。要切回到原始主群集,请执行以下任务:
使主群集与辅助群集同步以确保主卷最新。
更新 DNS 以使客户机能够访问主群集上的应用程序。
表 A–1 列出了本示例(说明如何使用 Sun StorageTek Availability Suite 软件为 NFS 应用程序配置数据复制)中的任务。
表 A–1 任务表:数据复制配置示例
任务 |
指导 |
---|---|
1. 连接和安装群集 | |
2. 在主群集和辅助群集上配置设备组、NFS 应用程序文件系统以及资源组 | |
3. 在主群集和辅助群集上启用数据复制 | |
4. 执行数据复制 | |
5. 检验数据复制配置 |
图 A–7 说明了配置示例所使用的群集配置。配置示例中的辅助群集包含一个节点,但是可以使用其他群集配置。
表 A–2概括了配置示例所需的硬件和软件。在安装 Sun StorageTek Availability Suite 软件和修补程序之前,必须先在群集节点上安装 Solaris OS、Sun Cluster 软件和卷管理器软件。
表 A–2 需要的硬件和软件
硬件和软件 |
要求 |
---|---|
节点硬件 |
所有使用 Solaris OS 的服务器均支持 Sun StorageTek Availability Suite 软件。 有关要使用哪个硬件的信息,请参见《Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS》。 |
磁盘空间 |
大约 15 兆字节。 |
Solaris OS |
Sun Cluster 软件支持的 Solaris 操作系统版本。 所有节点必须使用相同版本的 Solaris OS。 有关安装信息,请参见《Sun Cluster 软件安装指南(适用于 Solaris OS)》。 |
Sun Cluster 软件 |
Sun Cluster 3.2 2/08 软件。 有关安装信息,请参见《Sun Cluster 软件安装指南(适用于 Solaris OS)》。 |
卷管理器软件 |
Solaris Volume Manager 软件或 Veritas Volume Manager(Veritas 卷管理器) (VxVM) 软件。 所有节点必须使用相同版本的卷管理器软件。 有关安装的信息,请参见《Sun Cluster 软件安装指南(适用于 Solaris OS)》中的第 4 章 “配置 Solaris Volume Manager 软件”和《Sun Cluster 软件安装指南(适用于 Solaris OS)》中的第 5 章 “安装和配置 Veritas Volume Manager(Veritas 卷管理器)”。 |
Sun StorageTek Availability Suite 软件 |
有关如何安装该软件的信息,请参见 Sun StorageTek Availability Suite 发行版或 Sun StorageTek Availability Suite 软件的安装手册:
|
Sun StorageTek Availability Suite 软件修补程序 |
有关最新修补程序的信息,请参见 http://www.sunsolve.com。 |
本节介绍如何为 NFS 应用程序配置设备组和资源组。有关其他信息,请参见配置复制资源组和配置应用程序资源组。
本节包含以下过程:
下表列出了为示例配置创建的组和资源的名称。
表 A–3 配置示例中的组和资源的摘要
组或资源 |
名称 |
描述 |
---|---|---|
设备组 |
devgrp |
设备组 |
复制资源组和资源 |
devgrp-stor-rg |
复制资源组 |
lhost-reprg-prim、lhost-reprg-sec |
主群集和辅助群集上复制资源组的逻辑主机名 |
|
devgrp-stor |
复制资源组的 HAStoragePlus 资源 |
|
应用程序资源组和资源 |
nfs-rg |
应用程序资源组 |
lhost-nfsrg-prim、lhost-nfsrg-sec |
主群集和辅助群集上应用程序资源组的逻辑主机名 |
|
nfs-dg-rs |
应用程序的 HAStoragePlus 资源 |
|
nfs-rs |
NFS 资源 |
除 devgrp-stor-rg 以外,组和资源的名称均为示例名称,可根据需要更改。复制资源组的名称必须使用以下格式:devicegroupname -stor-rg。
此配置示例使用 VxVM 软件。有关 Solaris Volume Manager 软件的信息,请参见《Sun Cluster 软件安装指南(适用于 Solaris OS)》中的第 4 章 “配置 Solaris Volume Manager 软件”。
下图说明了在设备组中创建的卷。
此过程中定义的卷不得包括磁盘标签专用区域,例如,柱面 0。VxVM 软件自动管理此约束。
确保您已完成以下任务:
阅读以下各节中的指导信息和要求:
按照连接和安装 Clusters中的描述,设置主群集和辅助群集。
作为超级用户或使用一个提供 solaris.cluster.modify RBAC 授权的角色来访问 nodeA。
节点 nodeA 是主群集中的第一个节点。有关哪个节点是 nodeA 的提示,请参见图 A–7。
在包含四个卷的 nodeA 上创建一个磁盘组,这四个卷为:卷 1 (vol01) 至卷 4 (vol04)。
有关使用 VxVM 软件来配置磁盘组的信息,请参见《Sun Cluster 软件安装指南(适用于 Solaris OS)》中的第 5 章 “安装和配置 Veritas Volume Manager(Veritas 卷管理器)”。
配置磁盘组以创建设备组。
nodeA# cldevicegroup create -t vxvm -n nodeA nodeB devgrp |
该设备组名为 devgrp。
为该设备组创建文件系统。
nodeA# newfs /dev/vx/rdsk/devgrp/vol01 < /dev/null nodeA# newfs /dev/vx/rdsk/devgrp/vol02 < /dev/null |
用作原始卷的 vol03 或 vol04 不需要文件系统。
请转到如何在辅助群集上配置设备组。
请完成如何在主群集上配置设备组中所述的过程。
作为超级用户或使用一个提供 solaris.cluster.modify RBAC 授权的角色来访问 nodeC。
在包含四个卷的 nodeC 上创建一个磁盘组,这四个卷为:卷 1 (vol01) 至卷 4 (vol04)。
配置磁盘组以创建设备组。
nodeC# cldevicegroup create -t vxvm -n nodeC devgrp |
该设备组名为 devgrp。
为该设备组创建文件系统。
nodeC# newfs /dev/vx/rdsk/devgrp/vol01 < /dev/null nodeC# newfs /dev/vx/rdsk/devgrp/vol02 < /dev/null |
用作原始卷的 vol03 或 vol04 不需要文件系统。
请完成如何在辅助群集上配置设备组中所述的过程。
在 nodeA 和 nodeB 上,成为 超级用户或使用一个提供 solaris.cluster.admin RBAC 授权的角色。
在 nodeA 和 nodeB 上,为 NFS 文件系统创建一个挂载点目录。
例如:
nodeA# mkdir /global/mountpoint |
在 nodeA 和 nodeB 上,将主卷配置为自动在挂载点上进行挂载。
在 nodeA 和 nodeB 上的 /etc/vfstab 文件中添加或替换以下文本。该文本必须在一行。
/dev/vx/dsk/devgrp/vol01 /dev/vx/rdsk/devgrp/vol01 \ /global/mountpoint ufs 3 no global,logging |
有关设备组中使用的卷名称和卷编号的提示,请参见图 A–8。
在 nodeA 上,为 Sun Cluster HA for NFS 数据服务使用的文件系统信息创建一个卷。
nodeA# vxassist -g devgrp make vol05 120m disk1 |
卷 5 (vol05) 包含 Sun Cluster HA for NFS 数据服务使用的文件系统信息。
在 nodeA 上,使设备组与 Sun Cluster 软件重新同步。
nodeA# cldevicegroup sync devgrp |
在 nodeA 上,为 vol05 创建文件系统。
nodeA# newfs /dev/vx/rdsk/devgrp/vol05 |
在 nodeA 和 nodeB 上,为 vol05 创建一个挂载点。
以下示例创建挂载点 /global/etc。
nodeA# mkdir /global/etc |
在 nodeA 和 nodeB 上,将 vol05 配置为自动在挂载点上进行挂载。
在 nodeA 和 nodeB 上的 /etc/vfstab 文件中添加或替换以下文本。该文本必须在一行。
/dev/vx/dsk/devgrp/vol05 /dev/vx/rdsk/devgrp/vol05 \ /global/etc ufs 3 yes global,logging |
在 nodeA 上挂载 vol05。
nodeA# mount /global/etc |
使 vol05 可供远程系统访问。
完成如何在主群集上为 NFS 应用程序配置文件系统中所述的过程。
在 nodeC 上,成为超级用户或使用一个提供 solaris.cluster.admin RBAC 授权的角色。
在 nodeC 上,为 NFS 文件系统创建一个挂载点目录。
例如:
nodeC# mkdir /global/mountpoint |
在 nodeC 上,将主卷配置为自动在挂载点上进行挂载。
在 nodeC 上的 /etc/vfstab 文件中添加或替换以下文本。该文本必须在一行。
/dev/vx/dsk/devgrp/vol01 /dev/vx/rdsk/devgrp/vol01 \ /global/mountpoint ufs 3 no global,logging |
在 nodeC 上,为 Sun Cluster HA for NFS 数据服务使用的文件系统信息创建一个卷。
nodeC# vxassist -g devgrp make vol05 120m disk1 |
卷 5 (vol05) 包含 Sun Cluster HA for NFS 数据服务使用的文件系统信息。
在 nodeC 上,使设备组与 Sun Cluster 软件重新同步。
nodeC# cldevicegroup sync devgrp |
在 nodeC 上,为 vol05 创建文件系统。
nodeC# newfs /dev/vx/rdsk/devgrp/vol05 |
在 nodeC 上,为 vol05 创建一个挂载点。
以下示例创建挂载点 /global/etc。
nodeC# mkdir /global/etc |
在 nodeC 上,将 vol05 配置为自动在挂载点上进行挂载。
在 nodeC 上的 /etc/vfstab 文件中添加或替换以下文本。该文本必须在一行。
/dev/vx/dsk/devgrp/vol05 /dev/vx/rdsk/devgrp/vol05 \ /global/etc ufs 3 yes global,logging |
在 nodeC 上挂载 vol05。
nodeC# mount /global/etc |
使 vol05 可供远程系统访问。
请转到如何在主群集上创建复制资源组。
完成如何在辅助群集上为 NFS 应用程序配置文件系统中所述的过程。
作为超级用户或使用一个提供 solaris.cluster.modify、solaris.cluster.admin 和 solaris.cluster.read RBAC 授权的角色来访问 nodeA。
注册 SUNW.HAStoragePlus 资源类型。
nodeA# clresourcetype register SUNW.HAStoragePlus |
为设备组创建一个复制资源组。
nodeA# clresourcegroup create -n nodeA,nodeB devgrp-stor-rg |
指定群集节点 nodeA 和 nodeB 可控制该复制资源组。
复制资源组的名称。在此名称中,devgrp 指定了设备组的名称。
向复制资源组中添加一个 SUNW.HAStoragePlus 资源。
nodeA# clresource create -g devgrp-stor-rg -t SUNW.HAStoragePlus \ -p GlobalDevicePaths=devgrp \ -p AffinityOn=True \ devgrp-stor |
指定资源将被添加到哪一个资源组。
指定 SUNW.HAStoragePlus 资源必须对 -x GlobalDevicePaths= 所定义的全局设备和群集文件系统执行关联切换。因此,复制资源组发生故障转移或被切换后,相关的设备组也将被切换。
有关这些扩展属性的更多信息,请参见 SUNW.HAStoragePlus(5)手册页。
为复制资源组添加逻辑主机名资源。
nodeA# clreslogicalhostname create -g devgrp-stor-rg lhost-reprg-prim |
主群集上复制资源组的逻辑主机名为 lhost-reprg-prim。
启用资源、管理资源组并使资源组联机。
nodeA# clresourcegroup online -e -M -n nodeA devgrp-stor-rg |
启用相关联的资源。
管理资源组。
指定在哪个节点上使资源组联机。
检验资源组是否处于联机状态。
nodeA# clresourcegroup status devgrp-stor-rg |
检查资源组状态字段以确认该复制资源组在 nodeA 上处于联机状态。
请转到如何在辅助群集上创建复制资源组。
完成如何在主群集上创建复制资源组中所述的过程。
作为超级用户或使用一个提供 solaris.cluster.modify、solaris.cluster.admin 和 solaris.cluster.read RBAC 授权的角色来访问 nodeC。
将 SUNW.HAStoragePlus 注册为资源类型。
nodeC# clresourcetype register SUNW.HAStoragePlus |
为设备组创建一个复制资源组。
nodeC# clresourcegroup create -n nodeC devgrp-stor-rg |
创建资源组。
指定资源组的节点列表。
设备组的名称。
复制资源组的名称。
向复制资源组中添加一个 SUNW.HAStoragePlus 资源。
nodeC# clresource create \ -t SUNW.HAStoragePlus \ -p GlobalDevicePaths=devgrp \ -p AffinityOn=True \ devgrp-stor |
创建资源。
指定资源类型。
指定 Sun StorageTek Availability Suite 软件所依赖的扩展属性。
指定 SUNW.HAStoragePlus 资源必须对 -x GlobalDevicePaths= 所定义的全局设备和群集文件系统执行关联切换。因此,复制资源组发生故障转移或被切换后,相关的设备组也将被切换。
复制资源组的 HAStoragePlus 资源。
有关这些扩展属性的更多信息,请参见 SUNW.HAStoragePlus(5)手册页。
为复制资源组添加逻辑主机名资源。
nodeC# clreslogicalhostname create -g devgrp-stor-rg lhost-reprg-sec |
主群集上复制资源组的逻辑主机名为 lhost-reprg-sec。
启用资源、管理资源组并使资源组联机。
nodeC# clresourcegroup online -e -M -n nodeC devgrp-stor-rg |
联机。
启用相关联的资源。
管理资源组。
指定在哪个节点上使资源组联机。
检验资源组是否处于联机状态。
nodeC# clresourcegroup status devgrp-stor-rg |
检查资源组状态字段以确认该复制资源组在 nodeC 上处于联机状态。
此过程描述了如何为 NFS 创建应用程序资源组。此过程是特定于该应用程序的,且不能用于其他类型的应用程序。
完成如何在辅助群集上创建复制资源组中所述的过程。
作为超级用户或使用一个提供 solaris.cluster.modify、solaris.cluster.admin 和 solaris.cluster.read RBAC 授权的角色来访问 nodeA。
将 SUNW.nfs 注册为资源类型。
nodeA# clresourcetype register SUNW.nfs |
将 SUNW.HAStoragePlus 注册为资源类型(如果它尚未注册)。
nodeA# clresourcetype register SUNW.HAStoragePlus |
为设备组 devgrp 创建一个应用程序资源组。
nodeA# clresourcegroup create \ -p Pathprefix=/global/etc \ -p Auto_start_on_new_cluster=False \ -p RG_dependencies=devgrp-stor-rg \ nfs-rg |
指定组中资源可将管理文件写入哪个目录。
指定不自动启动应用程序资源组。
指定应用程序资源组所依赖的资源组。在本示例中,该应用程序资源组依赖于复制资源组 devgrp-stor-rg。
如果应用程序资源组被切换到新的主节点上,复制资源组也会被自动切换。但是,如果复制资源组被切换到新的主节点上,必须将应用程序资源组手动切换。
应用程序资源组的名称
向应用程序资源组中添加一个 SUNW.HAStoragePlus 资源。
nodeA# clresource create -g nfs-rg \ -t SUNW.HAStoragePlus \ -p FileSystemMountPoints=/global/mountpoint \ -p AffinityOn=True \ nfs-dg-rs |
创建资源。
指定资源将被添加到哪个资源组。
指定资源的类型是 SUNW.HAStoragePlus。
指定文件系统的装载点为全局装载点。
指定应用程序资源必须对 -p GlobalDevicePaths= 所定义的全局设备和群集文件系统执行关联切换。因此,当应用程序资源组发生故障转移或被切换后,相关的设备组也将被切换。
用于 NFS 应用程序的 HAStoragePlus 资源的名称。
有关这些扩展属性的更多信息,请参见 SUNW.HAStoragePlus(5)手册页。
为应用程序资源组添加逻辑主机名资源。
nodeA# clreslogicalhostname create -g nfs-rg \ lhost-nfsrg-prim |
主群集上应用程序资源组的逻辑主机名为 lhost-nfsrg-prim。
启用资源、管理应用程序资源组并使应用程序资源组联机。
检验应用程序资源组是否处于联机状态。
nodeA# clresourcegroup status |
检查资源组状态字段,确定该应用程序资源组在 nodeA 和 nodeB 上是否处于联机状态。
完成如何在主群集上创建 NFS 应用程序资源组中所述的过程。
作为超级用户或使用一个提供 solaris.cluster.modify、solaris.cluster.admin 和 solaris.cluster.read RBAC 授权的角色来访问 nodeC。
将 SUNW.nfs 注册为资源类型。
nodeC# clresourcetype register SUNW.nfs |
将 SUNW.HAStoragePlus 注册为资源类型(如果它尚未注册)。
nodeC# clresourcetype register SUNW.HAStoragePlus |
为设备组创建一个应用程序资源组。
nodeC# clresourcegroup create \ -p Pathprefix=/global/etc \ -p Auto_start_on_new_cluster=False \ -p RG_dependencies=devgrp-stor-rg \ nfs-rg |
创建资源组。
指定资源组的属性。
指定组中资源可以在哪个目录中写入管理文件。
指定不自动启动应用程序资源组。
指定应用程序资源组所依赖的资源组。在本示例中,应用程序资源组依赖复制资源组。
如果应用程序资源组被切换到新的主节点上,复制资源组也会被自动切换。但是,如果复制资源组被切换到新的主节点上,必须将应用程序资源组手动切换。
应用程序资源组的名称
向应用程序资源组中添加一个 SUNW.HAStoragePlus 资源。
nodeC# clresource create -g nfs-rg \ -t SUNW.HAStoragePlus \ -p FileSystemMountPoints=/global/mountpoint \ -p AffinityOn=True \ nfs-dg-rs |
创建资源。
指定资源将被添加到哪个资源组。
指定资源的类型是 SUNW.HAStoragePlus。
指定资源的属性。
指定文件系统的装载点为全局装载点。
指定应用程序资源必须对 -x GlobalDevicePaths= 所定义的全局设备和群集文件系统执行关联切换。因此,当应用程序资源组发生故障转移或被切换后,相关的设备组也将被切换。
用于 NFS 应用程序的 HAStoragePlus 资源的名称。
有关这些扩展属性的更多信息,请参见 SUNW.HAStoragePlus(5)手册页。
为应用程序资源组添加逻辑主机名资源。
nodeC# clreslogicalhostname create -g nfs-rg \ lhost-nfsrg-sec |
辅助群集上应用程序资源组的逻辑主机名为 lhost-nfsrg-sec。
向应用程序资源组中添加 NFS 资源。
nodeC# clresource create -g nfs-rg \ -t SUNW.nfs -p Resource_dependencies=nfs-dg-rs nfs-rg |
确保该应用程序资源组不在 nodeC 上联机。
nodeC# clresource disable -n nodeC nfs-rs nodeC# clresource disable -n nodeC nfs-dg-rs nodeC# clresource disable -n nodeC lhost-nfsrg-sec nodeC# clresourcegroup online -n "" nfs-rg |
由于 Auto_start_on_new_cluster=False,因此,重新引导之后,该资源组将保持脱机状态。
如果在主群集上装载全局卷,应从辅助群集上卸载全局卷。
nodeC# umount /global/mountpoint |
如果在辅助群集上装载卷,同步将失败。
请转到如何启用数据复制的示例。
本节描述了如何为示例配置启用数据复制。本节使用了 Sun StorageTek Availability Suite 软件的命令 sndradm 和 iiadm。有关这些命令的更多信息,请参见 Sun StorageTek Availability 文档。
本节包含以下过程:
作为超级用户或使用一个提供 solaris.cluster.read RBAC 授权的角色来访问 nodeA。
刷新所有事务。
nodeA# lockfs -a -f |
确认逻辑主机名 lhost-reprg-prim 和 lhost-reprg-sec 处于联机状态。
nodeA# clresourcegroup status nodeC# clresourcegroup status |
检查资源组的状态字段。
启用从主群集到辅助群集的远程镜像复制。
此步骤将主群集上的主卷复制到辅助群集上的主卷。此外,此步骤还复制到 vol04 上的远程镜像位图。
如果主群集和辅助群集不同步,请运行以下命令:
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
如果主群集和辅助群集同步,请运行以下命令:
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -E lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -E lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
启用自动同步。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -a on lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -a on lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
该步骤启用了自动同步。如果自动同步的活动状态设置为 on,则当系统重新引导或发生故障时,将重新同步卷集。
检验群集是否处于记录模式。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -P |
输出应与以下所示类似:
/dev/vx/rdsk/devgrp/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01 autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: logging |
在日志记录模式下,状态为 logging,自动同步的活动状态为 off。当磁盘上的数据卷被写入时,即更新同一磁盘上的位图文件。
启用实时快照。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/iiadm -e ind \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 nodeA# /usr/opt/SUNWesm/sbin/iiadm -w \ /dev/vx/rdsk/devgrp/vol02 |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/iiadm -e ind \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 nodeA# /usr/sbin/iiadm -w \ /dev/vx/rdsk/devgrp/vol02 |
此步骤将主群集上的主卷复制到相同群集上的阴影卷中。主卷、阴影卷和实时位图卷必须在同一设备组中。在本示例中,主卷为 vol01,阴影卷为 vol02,实时位图卷为 vol03。
将实时快照连接到远程镜像集。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -I a \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -I a \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 |
该步骤使实时快照与远程镜像卷集相关联。Sun StorageTek Availability Suite 软件可以确保在进行远程镜像复制之前进行实时快照。
请转到如何在辅助群集上启用复制。
完成如何在主群集上启用复制中所述的过程。
以超级用户身份访问 nodeC。
刷新所有事务。
nodeC# lockfs -a -f |
启用从主群集到辅助群集的远程镜像复制。
对于 Sun StorEdge Availability Suite 软件:
nodeC# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeC# /usr/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
主群集检测到存在辅助群集并启动同步。有关群集状态的信息,请参阅系统日志文件 /var/opt/SUNWesm/ds.log(对于 Sun StorEdge Availability Suite)或 /var/adm(对于 Sun StorageTek Availability Suite)。
启用独立实时快照。
对于 Sun StorEdge Availability Suite 软件:
nodeC# /usr/opt/SUNWesm/sbin/iiadm -e ind \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 nodeC# /usr/opt/SUNWesm/sbin/iiadm -w \ /dev/vx/rdsk/devgrp/vol02 |
对于 Sun StorageTek Availability Suite 软件:
nodeC# /usr/sbin/iiadm -e ind \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 nodeC# /usr/sbin/iiadm -w \ /dev/vx/rdsk/devgrp/vol02 |
将实时快照连接到远程镜像集。
对于 Sun StorEdge Availability Suite 软件:
nodeC# /usr/opt/SUNWesm/sbin/sndradm -I a \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 |
对于 Sun StorageTek Availability Suite 软件:
nodeC# /usr/sbin/sndradm -I a \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 |
请转到如何执行数据复制的示例。
本节描述了如何为示例配置执行数据复制。本节使用了 Sun StorageTek Availability Suite 软件的命令 sndradm 和 iiadm。有关这些命令的更多信息,请参见 Sun StorageTek Availability Suite 文档。
本节包含以下过程:
在此过程中,将主磁盘的主卷复制到辅助磁盘上的主卷。主卷为 vol01,远程镜像位图卷为 vol04。
以超级用户身份访问 nodeA。
检验群集是否处于记录模式。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -P |
输出应与以下所示类似:
/dev/vx/rdsk/devgrp/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01 autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: logging |
在日志记录模式下,状态为 logging,自动同步的活动状态为 off。当磁盘上的数据卷被写入时,即更新同一磁盘上的位图文件。
刷新所有事务。
nodeA# lockfs -a -f |
将 nodeA 的主卷复制到 nodeC 的主卷上。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -m lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -m lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
完成复制和同步卷之前,请等待。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -w lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -w lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
确认群集是否处于复制模式。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -P |
输出应与以下所示类似:
/dev/vx/rdsk/devgrp/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01 autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: replicating |
在复制模式下,状态为 replicating,而自动同步的活动状态为 on。对主卷进行写入时,由 Sun StorageTek Availability Suite 软件对辅助卷进行更新。
请转到如何执行实时快照。
在此过程中,实时快照用于将主群集的阴影卷同步到主群集的主卷中。主卷为 vol01,位图卷为 vol04,阴影卷为 vol02。
完成如何执行远程镜像复制中所述的过程。
作为超级用户或使用一个提供 solaris.cluster.modify 和 solaris.cluster.admin RBAC 授权的角色来访问 nodeA。
禁用 nodeA 上正在运行的资源。
nodeA# clresource disable -n nodeA nfs-rs |
将主群集更改为日志模式。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
当磁盘上的数据卷被写入时,即更新同一磁盘上的位图文件。系统不会执行任何复制操作。
使主群集的阴影卷与主群集的主卷同步。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02 nodeA# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02 |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02 nodeA# /usr/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02 |
使辅助群集的阴影卷与辅助群集的主卷同步。
对于 Sun StorEdge Availability Suite 软件:
nodeC# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02 nodeC# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02 |
对于 Sun StorageTek Availability Suite 软件:
nodeC# /usr/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02 nodeC# /usr/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02 |
在 nodeA 上重新启动该应用程序。
nodeA# clresource enable -n nodeA nfs-rs |
使辅助卷与主卷重新同步。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
请转到如何检验复制是否已正确配置。
完成如何执行实时快照中所述的过程。
作为超级用户或使用一个提供 solaris.cluster.admin RBAC 授权的角色来访问 nodeA 和 nodeC。
检验主群集是否处于复制模式并已启用自动同步。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -P |
输出应与以下所示类似:
/dev/vx/rdsk/devgrp/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01 autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: replicating |
在复制模式下,状态为 replicating,而自动同步的活动状态为 on。对主卷进行写入时,由 Sun StorageTek Availability Suite 软件对辅助卷进行更新。
如果主群集未处于复制模式下,则使其处于复制模式下。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
在客户机上创建目录。
将目录挂载到主群集上的应用程序中,并显示已挂载的目录。
将目录挂载到辅助群集上的应用程序,并显示已挂载的目录。
从主群集上的应用程序卸载该目录。
client-machine# umount /dir |
使主群集上的应用程序资源组脱机。
nodeA# clresource disable -n nodeA nfs-rs nodeA# clresource disable -n nodeA nfs-dg-rs nodeA# clresource disable -n nodeA lhost-nfsrg-prim nodeA# clresourcegroup online -n "" nfs-rg |
将主群集更改为日志模式。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
当磁盘上的数据卷被写入时,即更新同一磁盘上的位图文件。系统不会执行任何复制操作。
确保 PathPrefix 目录可用。
nodeC# mount | grep /global/etc |
使辅助群集上的应用程序资源组联机。
nodeC# clresourcegroup online -n nodeC nfs-rg |
以超级用户身份访问客户机。
您将看到类似下面的提示:
client-machine# |
将您在步骤 4 中创建的目录挂载到辅助群集上的应用程序中。
client-machine# mount -o rw lhost-nfsrg-sec:/global/mountpoint /dir |
显示已挂载的目录。
client-machine# ls /dir |
使主群集上的应用程序返回到已装载目录。
使应用程序资源组在辅助群集上脱机。
nodeC# clresource disable -n nodeC nfs-rs nodeC# clresource disable -n nodeC nfs-dg-rs nodeC# clresource disable -n nodeC lhost-nfsrg-sec nodeC# clresourcegroup online -n "" nfs-rg |
确保从辅助群集上卸载全局卷。
nodeC# umount /global/mountpoint |
使应用程序资源组在主群集上联机。
nodeA# clresourcegroup online -n nodeA nfs-rg |
将主群集更改为复制模式。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对主卷进行写入时,由 Sun StorageTek Availability Suite 软件对辅助卷进行更新。
本节描述了如何引发故障转移以及如何将应用程序传送到辅助群集。进行故障转移之后,请更新 DNS 条目。有关其他信息,请参见故障转移管理准则。
本节包含以下过程:
作为超级用户或使用一个提供 solaris.cluster.admin RBAC 授权的角色来访问 nodeA 和 nodeC。
将主群集更改为日志模式。
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
对磁盘上的数据卷进行写入时,将更新同一设备组上的位图卷。系统不会执行任何复制操作。
确认主群集和辅助群集处于记录模式并取消自动同步。
在 nodeA 上,确认模式和设置:
对于 Sun StorEdge Availability Suite 软件:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
对于 Sun StorageTek Availability Suite 软件:
nodeA# /usr/sbin/sndradm -P |
输出应与以下所示类似:
/dev/vx/rdsk/devgrp/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01 autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag: devgrp, state: logging |
在 nodeC 上,确认模式和设置:
对于 Sun StorEdge Availability Suite 软件:
nodeC# /usr/opt/SUNWesm/sbin/sndradm -P |
对于 Sun StorageTek Availability Suite 软件:
nodeC# /usr/sbin/sndradm -P |
输出应与以下所示类似:
/dev/vx/rdsk/devgrp/vol01 <- lhost-reprg-prim:/dev/vx/rdsk/devgrp/vol01 autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag: devgrp, state: logging |
对于 nodeA 和 nodeC,状态应为 logging,而自动同步的活动状态应为 off。
确认辅助群集已准备好接任主群集。
nodeC# fsck -y /dev/vx/rdsk/devgrp/vol01 |
切换到辅助群集。
nodeC# clresourcegroup switch -n nodeC nfs-rg |
请转到如何更新 DNS 条目。
有关说明 DNS 如何将客户机映射到群集的图示,请参见图 A–6。
完成如何引发切换操作中所述的过程。
启动 nsupdate 命令。
有关信息,请参见 nsupdate(1M) 手册页。
针对两个群集(主群集和辅助群集),删除当前在应用程序资源组的逻辑主机名与群集 IP 地址之间存在的 DNS 映射。
> update delete lhost-nfsrg-prim A > update delete lhost-nfsrg-sec A > update delete ipaddress1rev.in-addr.arpa ttl PTR lhost-nfsrg-prim > update delete ipaddress2rev.in-addr.arpa ttl PTR lhost-nfsrg-sec |
主群集的 IP 地址,按照逆序。
辅助群集的 IP 地址,按照逆序。
有效时间(以秒为单位)。典型值为 3600。
针对两个群集(主群集和辅助群集),创建应用程序资源组的逻辑主机名与群集 IP 地址之间的新 DNS 映射。
将主逻辑主机名映射到辅助群集的 IP 地址,将辅助逻辑主机名映射到主群集的 IP 地址。
> update add lhost-nfsrg-prim ttl A ipaddress2fwd > update add lhost-nfsrg-sec ttl A ipaddress1fwd > update add ipaddress2rev.in-addr.arpa ttl PTR lhost-nfsrg-prim > update add ipaddress1rev.in-addr.arpa ttl PTR lhost-nfsrg-sec |
辅助群集的 IP 地址,按照正序。
主群集的 IP 地址,按照正序。