本附录提供了另外一种基于主机的复制方法,这种方法不使用 Oracle Solaris Cluster Geographic Edition。不过,使用 Oracle Solaris Cluster Geographic Edition 进行基于主机的复制,可简化群集之间基于主机的复制的配置和操作。请参见了解数据复制。
本附录中的示例说明了如何使用 Oracle Solaris 的 Availability Suite 功能 软件配置群集之间基于主机的数据复制。该示例描绘了一个 NFS 应用程序(详细介绍如何执行各项具体任务)的完整群集配置。所有任务都应该在全局群集中执行。该示例不包括其他应用程序或群集配置所需的所有步骤。
如果使用基于角色的访问控制 (role-based access control, RBAC) 来访问群集节点,请确保承担可对所有 Oracle Solaris Cluster 命令提供授权的 RBAC 角色。需要具备以下 Oracle Solaris Cluster RBAC 授权才能执行这一系列的数据复制过程:
solaris.cluster.modify
solaris.cluster.admin
solaris.cluster.read
有关使用 RBAC 角色的更多信息,请参见在 Oracle Solaris 11.2 中确保用户和进程的安全 。有关每个 Oracle Solaris Cluster 子命令所需 RBAC 授权的信息,请参见 Oracle Solaris Cluster 手册页。
本节介绍了容灾性,并且描述了 Sun StorageTek Availability Suite 软件使用的数据复制方法。
容灾性是指当主群集发生故障时,在备用群集上恢复应用程序的能力。容灾性基于数据复制和接管。接管是指通过让一个或多个资源组和设备组联机,将某项应用程序服务重定位到辅助群集。
如果数据是在主群集和辅助群集之间同步复制的,则当主站点发生故障时,不会丢失已提交的数据。但是,如果数据是以异步方式复制的,则在主站点发生故障之前,某些数据可能尚未复制到辅助群集中,因此会丢失。
本节描述了 Sun StorageTek Availability Suite 软件使用的远程镜像复制方法和时间点快照方法。该软件使用 sndradm 和 iiadm 命令复制数据。有关更多信息,请参见 sndradm(1M) 和 iiadm(1M) 手册页。
Figure A–1 显示了远程镜像复制。通过 TCP/IP 连接可以将主磁盘主卷中的数据复制到辅助磁盘的主卷中。该软件使用远程镜像位图来跟踪主磁盘上的主卷与辅助磁盘上的主卷之间的差别。
图 A-1 远程镜像复制
可以实时同步或异步执行远程镜像复制。可以为同步复制或异步复制单独配置每个群集中的每个卷。
Figure A–2 显示了时间点快照。每个磁盘的主卷中的数据都被复制到同一磁盘上的影子卷中。时间点位图跟踪主卷和影子卷之间的差异。数据被复制到影子卷之后,时间点位图将被复位。
图 A-2 时间点快照
Figure A–3 展示了此配置示例是如何使用远程镜像复制和时间点快照的。
图 A-3 复制示例配置
本节提供了有关配置群集间数据复制的准则。本节还包含了配置复制资源组和应用程序资源组的提示。为群集配置数据复制时,请使用这些指导信息。
本节包括以下主题:
复制资源组可将设备组与逻辑主机名资源并置在 Sun StorageTek Availability Suite 软件控制下。逻辑主机名必须存在于每个数据复制流的末尾,且必须位于可充当设备主 I/O 路径的同一群集节点上。复制资源组必须具有以下特征:
是一个故障转移资源组
每次只能在一个节点上运行故障转移资源。发生故障转移时,故障转移资源参与故障转移。
逻辑主机名承载在每个群集(主群集和辅助群集)的一个节点上,用于提供 Sun StorageTek Availability Suite 软件数据复制流的源地址和目标地址。
具有 HAStoragePlus 资源
复制资源组被切换或故障转移之后,HAStoragePlus 资源将强制执行设备组的故障转移。设备组被切换之后,Oracle Solaris Cluster 软件还将强制执行复制资源组的故障转移。这样,复制资源组和设备组将始终由同一节点配置或控制。
GlobalDevicePaths。此扩展属性定义了卷所属的设备组。
AffinityOn 属性 = True。在复制资源组切换或故障转移时,此扩展特性使设备组进行切换或故障转移。该特性称作关联切换。
有关 HAStoragePlus 的更多信息,请参见 SUNW.HAStoragePlus(5) 手册页。
例如,devgrp-stor-rg。
同时在主群集和辅助群集上联机
要具有较高的可用性,应用程序必须以应用程序资源组中的资源形式接受管理。可以将应用程序资源组配置为故障转移应用程序或可伸缩应用程序。
必须在 HAStoragePlus 资源中定义 ZPoolsSearchDir 扩展属性。此扩展属性是使用 ZFS 文件系统时所必需的。
主群集上配置的应用程序资源和应用程序资源组也必须在辅助群集上配置。而且,应用程序资源访问的数据也必须被复制到辅助群集上。
本节提供了配置以下应用程序资源组的指南:
在故障转移应用程序中,一个应用程序一次在一个节点上运行。如果此节点发生故障,应用程序将故障转移到同一群集中的另一个节点。用于故障转移应用程序的资源组必须具有以下特征:
当应用程序资源组发生切换或故障转移时,具有 HAStoragePlus 资源可以强制文件系统或 zpool 进行故障转移。
设备组与复制资源组和应用程序资源组位于相同的位置。因此,应用程序资源组的故障转移将强制执行设备组和复制资源组的故障转移。应用程序资源组 、复制资源组和设备组由同一节点控制。
但是请注意,设备组或复制资源组的故障转移不会引起应用程序资源组的故障转移。
如果已全局安装了应用程序数据,则不需要使 HAStoragePlus 资源存在于应用程序资源组中,但建议使其存在。
如果局部安装了应用程序数据,则需要使 HAStoragePlus 资源存在于应用程序资源组中。
有关 HAStoragePlus 的更多信息,请参见 SUNW.HAStoragePlus(5) 手册页。
必须在主群集上联机而在辅助群集上脱机。
辅助群集成为主群集时,必须使应用程序资源组在辅助群集上联机。
Figure A–4 说明了故障转移应用程序中应用程序资源组和复制资源组的配置。
图 A-4 配置故障转移应用程序中的资源组
在可伸缩应用程序中,一个应用程序可以在多个节点上运行以创建单一逻辑服务。如果运行可伸缩应用程序的节点发生故障,将不会发生故障转移。该应用程序将在其他节点上继续运行。
如果将可伸缩应用程序作为应用程序资源组中的资源管理,则无需将设备组配置给应用程序资源组。因此,也无需为应用程序资源组创建 HAStoragePlus 资源。
Figure A–5 说明了可伸缩应用程序中的资源组配置。
图 A-5 配置可伸缩应用程序中的资源组
如果主群集发生故障,必须尽快将应用程序切换到辅助群集。要使辅助群集接任主群集,必须更新 DNS。
客户机使用 DNS 将应用程序的逻辑主机名映射到某个 IP 地址。完成切换(即将应用程序转移到辅助群集)后,必须更新 DNS 信息,使之反映应用程序的逻辑主机名与新 IP 地址之间的映射关系。
图 A-6 客户机到群集的 DNS 映射
要更新 DNS,请使用 nsupdate 命令。有关信息,请参见 nsupdate(1M) 手册页。有关如何管理接管的示例,请参见用以管理接管的方法示例。
在修复后,主群集可以恢复联机状态。要切回到原始主群集,请执行以下任务:
使主群集与辅助群集同步以确保主卷最新。要实现此目的,您可以停止辅助节点上的资源组,以便复制数据流可以排空。
逆转数据复制的方向,以便原始的主节点现在可以再次将数据复制到原始的辅助节点。
启动主群集上的资源组。
更新 DNS 以使客户机能够访问主群集上的应用程序。
Table A–1 列出了本示例中的任务,本示例描述了如何使用 Sun StorageTek Availability Suite 软件为 NFS 应用程序配置数据复制。
|
Figure A–7 说明了配置示例所使用的群集配置。配置示例中的辅助群集包含一个节点,但是可以使用其他群集配置。
图 A-7 群集配置示例
Table A–2 概括了配置示例所需的硬件和软件。在安装 Sun StorageTek Availability Suite 软件和软件更新之前,必须先在群集节点上安装 Oracle Solaris OS、Oracle Solaris Cluster 软件和卷管理器软件。
|
本节介绍如何为 NFS 应用程序配置设备组和资源组。有关其他信息,请参见配置复制资源组和配置应用程序资源组。
本节包含以下过程:
下表列出了为示例配置创建的组和资源的名称。
|
除 devgrp-stor-rg 以外,组和资源的名称均为示例名称,可根据需要更改。复制资源组的名称必须使用以下格式:devicegroupname -stor-rg。
有关 Solaris Volume Manager 软件的信息,请参见Oracle Solaris Cluster 软件安装指南 中的第 4 章 配置 Solaris Volume Manager 软件。
开始之前
确保您已完成以下任务:
阅读以下各节中的指导信息和要求:
按照连接和安装群集中的描述,设置主群集和辅助群集。
节点 nodeA 是主群集中的第一个节点。有关哪个节点是 nodeA 的提示,请参见Figure A–7。
nodeA# metaset -s nfsset a -h nodeA nodeB
nodeA# metaset -s nfsset -a /dev/did/dsk/d6 /dev/did/dsk/d7
nodeA# metaset -s nfsset -a -m nodeA nodeB
创建镜像的两个组件:
nodeA# metainit -s nfsset d101 1 1 /dev/did/dsk/d6s2 nodeA# metainit -s nfsset d102 1 1 /dev/did/dsk/d7s2
使用下述某个组件创建镜像:
nodeA# metainit -s nfsset d100 -m d101
将另一个组件附加到镜像并允许其同步:
nodeA# metattach -s nfsset d100 d102
根据以下示例从镜像创建软分区:
d200-NFS 数据(主卷):
nodeA# metainit -s nfsset d200 -p d100 50G
d201-NFS 数据的时间点副本卷:
nodeA# metainit -s nfsset d201 -p d100 50G
d202-时间点位图卷:
nodeA# metainit -s nfsset d202 -p d100 10M
d203-远程影子位图卷:
nodeA# metainit -s nfsset d203 -p d100 10M
d204-Oracle Solaris Cluster SUNW.NFS 配置信息卷:
nodeA# metainit -s nfsset d204 -p d100 100M
nodeA# yes | newfs /dev/md/nfsset/rdsk/d200 nodeA# yes | newfs /dev/md/nfsset/rdsk/d204
接下来的步骤
请转到如何在辅助群集上配置设备组。
开始之前
请完成如何在主群集上配置设备组中所述的过程。
nodeC# metaset -s nfsset a -h nodeC
在下面的示例中,假定磁盘 DID 编号各不相同。
nodeC# metaset -s nfsset -a /dev/did/dsk/d3 /dev/did/dsk/d4
创建镜像的两个组件:
nodeC# metainit -s nfsset d101 1 1 /dev/did/dsk/d3s2 nodeC# metainit -s nfsset d102 1 1 /dev/did/dsk/d4s2
使用下述某个组件创建镜像:
nodeC# metainit -s nfsset d100 -m d101
将另一个组件附加到镜像并允许其同步:
metattach -s nfsset d100 d102
根据以下示例从镜像创建软分区:
d200-NFS 数据(主卷):
nodeC# metainit -s nfsset d200 -p d100 50G
d201-NFS 数据的时间点副本卷:
nodeC# metainit -s nfsset d201 -p d100 50G
d202-时间点位图卷:
nodeC# metainit -s nfsset d202 -p d100 10M
d203-远程影子位图卷:
nodeC# metainit -s nfsset d203 -p d100 10M
d204-Oracle Solaris Cluster SUNW.NFS 配置信息卷:
nodeC# metainit -s nfsset d204 -p d100 100M
nodeC# yes | newfs /dev/md/nfsset/rdsk/d200 nodeC# yes | newfs /dev/md/nfsset/rdsk/d204
接下来的步骤
开始之前
请完成如何在辅助群集上配置设备组中所述的过程。
例如:
nodeA# mkdir /global/mountpoint
在 nodeA 和 nodeB 上的 /etc/vfstab 文件中添加或替换以下文本。该文本必须在一行。
/dev/md/nfsset/dsk/d200 /dev/md/nfsset/rdsk/d200 \ /global/mountpoint ufs 3 no global,logging
以下示例创建挂载点 /global/etc。
nodeA# mkdir /global/etc
在 nodeA 和 nodeB 上的 /etc/vfstab 文件中添加或替换以下文本。该文本必须在一行。
/dev/md/nfsset/dsk/d204 /dev/md/nfsset/rdsk/d204 \ /global/etc ufs 3 yes global,logging
nodeA# mount /global/etc
nodeA# mkdir -p /global/etc/SUNW.nfs
nodeA# touch /global/etc/SUNW.nfs/dfstab.nfs-rs
share -F nfs -o rw -d "HA NFS" /global/mountpoint
接下来的步骤
开始之前
完成如何在主群集上为 NFS 应用程序配置文件系统中所述的过程。
例如:
nodeC# mkdir /global/mountpoint
在 nodeC 上的 /etc/vfstab 文件中添加或替换以下文本。该文本必须在一行。
/dev/md/nfsset/dsk/d200 /dev/md/nfsset/rdsk/d200 \ /global/mountpoint ufs 3 yes global,logging
nodeC# mount /global/etc
nodeC# mkdir -p /global/etc/SUNW.nfs
nodeC# touch /global/etc/SUNW.nfs/dfstab.nfs-rs
share -F nfs -o rw -d "HA NFS" /global/mountpoint
接下来的步骤
请转到如何在主群集上创建复制资源组。
开始之前
完成如何在辅助群集上为 NFS 应用程序配置文件系统中所述的过程。
请确保 /etc/netmasks 文件具有所有逻辑主机名对应的 IP 地址子网和网络掩码条目。如有必要,请编辑 /etc/netmasks 文件以添加缺少的任何条目。
nodeA# clresourcetype register SUNW.HAStoragePlus
nodeA# clresourcegroup create -n nodeA,nodeB devgrp-stor-rg
指定群集节点 nodeA 和 nodeB 可控制该复制资源组。
复制资源组的名称。在此名称中,devgrp 指定了设备组的名称。
nodeA# clresource create -g devgrp-stor-rg -t SUNW.HAStoragePlus \ -p GlobalDevicePaths=nfsset \ -p AffinityOn=True \ devgrp-stor
指定资源将被添加到哪一个资源组。
指定 SUNW.HAStoragePlus 资源必须对 -p GlobalDevicePaths= 所定义的全局设备和群集文件系统执行关联切换。因此,复制资源组发生故障转移或被切换后,相关的设备组也将被切换。
有关这些扩展属性的更多信息,请参见 SUNW.HAStoragePlus(5) 手册页。
nodeA# clreslogicalhostname create -g devgrp-stor-rg lhost-reprg-prim
主群集上复制资源组的逻辑主机名为 lhost-reprg-prim。
nodeA# clresourcegroup online -emM -n nodeA devgrp-stor-rg
启用相关联的资源。
管理资源组。
指定在哪个节点上使资源组联机。
nodeA# clresourcegroup status devgrp-stor-rg
检查资源组状态字段以确认该复制资源组在 nodeA 上处于联机状态。
接下来的步骤
请转到如何在辅助群集上创建复制资源组。
开始之前
完成如何在主群集上创建复制资源组中所述的过程。
请确保 /etc/netmasks 文件具有所有逻辑主机名对应的 IP 地址子网和网络掩码条目。如有必要,编辑 /etc/netmasks 文件以添加缺少的任何条目。
nodeC# clresourcetype register SUNW.HAStoragePlus
nodeC# clresourcegroup create -n nodeC devgrp-stor-rg
创建资源组。
指定资源组的节点列表。
设备组的名称。
复制资源组的名称。
nodeC# clresource create \ -t SUNW.HAStoragePlus \ -p GlobalDevicePaths=nfsset \ -p AffinityOn=True \ devgrp-stor
创建资源。
指定资源类型。
指定 Sun StorageTek Availability Suite 软件所依赖的设备组。
指定 SUNW.HAStoragePlus 资源必须对 -p GlobalDevicePaths= 所定义的全局设备和群集文件系统执行关联性切换。因此,复制资源组发生故障转移或被切换后,相关的设备组也将被切换。
复制资源组的 HAStoragePlus 资源。
有关这些扩展属性的更多信息,请参见 SUNW.HAStoragePlus(5) 手册页。
nodeC# clreslogicalhostname create -g devgrp-stor-rg lhost-reprg-sec
辅助群集上复制资源组的逻辑主机名为 lhost-reprg-sec。
nodeC# clresourcegroup online -eM -n nodeC devgrp-stor-rg
联机。
启用相关联的资源。
管理资源组。
指定在哪个节点上使资源组联机。
nodeC# clresourcegroup status devgrp-stor-rg
检查资源组状态字段以确认该复制资源组在 nodeC 上处于联机状态。
接下来的步骤
此过程描述了如何为 NFS 创建应用程序资源组。此过程是特定于该应用程序的,且不能用于其他类型的应用程序。
开始之前
完成如何在辅助群集上创建复制资源组中所述的过程。
请确保 /etc/netmasks 文件具有所有逻辑主机名对应的 IP 地址子网和网络掩码条目。如有必要,请编辑 /etc/netmasks 文件以添加缺少的任何条目。
nodeA# clresourcetype register SUNW.nfs
nodeA# clresourcetype register SUNW.HAStoragePlus
nodeA# clresourcegroup create \ -p Pathprefix=/global/etc \ -p Auto_start_on_new_cluster=False \ -p RG_affinities=+++devgrp-stor-rg \ nfs-rg
指定组中资源可将管理文件写入哪个目录。
指定不自动启动应用程序资源组。
指定应用程序资源组必须与之并置的资源组。在本示例中,该应用程序资源组必须与复制资源组 devgrp-stor-rg 并置。
如果复制资源组被切换到新的主节点上,应用程序资源组也会被自动切换。不过,系统将阻止您将应用程序资源组切换到新的主节点,因为该操作会违反并置要求。
应用程序资源组的名称
nodeA# clresource create -g nfs-rg \ -t SUNW.HAStoragePlus \ -p FileSystemMountPoints=/global/mountpoint \ -p AffinityOn=True \ nfs-dg-rs
创建资源。
指定资源将被添加到哪个资源组。
指定资源的类型是 SUNW.HAStoragePlus。
指定文件系统的挂载点为全局挂载点。
指定应用程序资源必须对 -p FileSystemMountPoints 所定义的全局设备和群集文件系统执行关联切换。因此,当应用程序资源组发生故障转移或被切换后,相关的设备组也将被切换。
用于 NFS 应用程序的 HAStoragePlus 资源的名称。
有关这些扩展属性的更多信息,请参见 SUNW.HAStoragePlus(5) 手册页。
nodeA# clreslogicalhostname create -g nfs-rg \ lhost-nfsrg-prim
主群集上应用程序资源组的逻辑主机名为 lhost-nfsrg-prim。
nodeA# clresourcegroup online -M -n nodeA nfs-rg
使资源组联机。
启用相关联的资源。
管理资源组。
指定在哪个节点上使资源组联机。
资源组的名称。
nodeA# clresourcegroup status
检查资源组状态字段,确定该应用程序资源组在 nodeA 和 nodeB 上是否处于联机状态。
接下来的步骤
开始之前
完成如何在主群集上创建 NFS 应用程序资源组中所述的过程。
请确保 /etc/netmasks 文件具有所有逻辑主机名对应的 IP 地址子网和网络掩码条目。如有必要,编辑 /etc/netmasks 文件以添加缺少的任何条目。
nodeC# clresourcetype register SUNW.nfs
nodeC# clresourcetype register SUNW.HAStoragePlus
nodeC# clresourcegroup create \ -p Pathprefix=/global/etc \ -p Auto_start_on_new_cluster=False \ -p RG_affinities=+++devgrp-stor-rg \ nfs-rg
创建资源组。
指定资源组的属性。
指定组中资源可以在哪个目录中写入管理文件。
指定不自动启动应用程序资源组。
指定应用程序资源组必须与之并置的资源组。在本示例中,该应用程序资源组必须与复制资源组 devgrp-stor-rg 并置。
如果复制资源组被切换到新的主节点上,应用程序资源组也会被自动切换。不过,系统将阻止您将应用程序资源组切换到新的主节点,因为该操作会违反并置要求。
应用程序资源组的名称
nodeC# clresource create -g nfs-rg \ -t SUNW.HAStoragePlus \ -p FileSystemMountPoints=/global/mountpoint \ -p AffinityOn=True \ nfs-dg-rs
创建资源。
指定资源将被添加到哪个资源组。
指定资源的类型是 SUNW.HAStoragePlus。
指定资源的属性。
指定文件系统的挂载点为全局挂载点。
指定应用程序资源必须对 -p FileSystemMountPoints= 所定义的全局设备和群集文件系统执行关联性切换。因此,当应用程序资源组发生故障转移或被切换后,相关的设备组也将被切换。
用于 NFS 应用程序的 HAStoragePlus 资源的名称。
nodeC# clreslogicalhostname create -g nfs-rg \ lhost-nfsrg-sec
辅助群集上应用程序资源组的逻辑主机名为 lhost-nfsrg-sec。
nodeC# clresource create -g nfs-rg \ -t SUNW.nfs -p Resource_dependencies=nfs-dg-rs nfs-rg
nodeC# umount /global/mountpoint
如果在辅助群集上挂载卷,同步将失败。
接下来的步骤
请转到如何启用数据复制的示例。
本节描述了如何为示例配置启用数据复制。本节使用了 Sun StorageTek Availability Suite 软件的命令 sndradm 和 iiadm。有关这些命令的更多信息,请参见 Sun StorageTek Availability Suite 文档。
本节包含以下过程:
nodeA# lockfs -a -f
nodeA# clresourcegroup status nodeC# clresourcegroup status
检查资源组的状态字段。
此步骤启用从主群集到辅助群集的复制。此步骤启用从主群集上的主卷 (d200) 到辅助群集上的主卷 (d200) 的复制。此外,此步骤还启用到 d203 上的远程镜像位图的复制。
如果主群集和辅助群集不同步,请对 Sun StorageTek Availability Suite 软件运行以下命令:
nodeA# /usr/sbin/sndradm -n -e lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
如果主群集和辅助群集同步,请对 Sun StorageTek Availability Suite 软件运行以下命令:
nodeA# /usr/sbin/sndradm -n -E lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
对 Sun StorageTek Availability Suite 软件运行以下命令:
nodeA# /usr/sbin/sndradm -n -a on lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
该步骤启用了自动同步。如果自动同步的活动状态设置为 on,则当系统重新引导或发生故障时,将重新同步卷集。
对 Sun StorageTek Availability Suite 软件使用以下命令:
nodeA# /usr/sbin/sndradm -P
输出应与以下所示类似:
/dev/md/nfsset/rdsk/d200 -> lhost-reprg-sec:/dev/md/nfsset/rdsk/d200 autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: logging
在日志记录模式下,状态为 logging,自动同步的活动状态为 off。当磁盘上的数据卷被写入时,即更新同一磁盘上的位图文件。
对 Sun StorageTek Availability Suite 软件使用以下命令:
nodeA# /usr/sbin/iiadm -e ind \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d201 \ /dev/md/nfsset/rdsk/d202 nodeA# /usr/sbin/iiadm -w \ /dev/md/nfsset/rdsk/d201
此步骤使主群集上的主卷将被复制到同一群集上的影子卷中。主卷、影子卷和时间点位图卷必须在同一设备组中。在本示例中,主卷为 d200,影子卷为 d201,时间点位图卷为 d203。
对 Sun StorageTek Availability Suite 软件使用以下命令:
nodeA# /usr/sbin/sndradm -I a \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d201 \ /dev/md/nfsset/rdsk/d202
此步骤将时间点快照与远程镜像卷集相关联。Sun StorageTek Availability Suite 软件可以确保在进行远程镜像复制之前创建时间点快照。
接下来的步骤
请转到如何在辅助群集上启用复制。
开始之前
完成如何在主群集上启用复制中所述的过程。
nodeC# lockfs -a -f
对 Sun StorageTek Availability Suite 软件使用以下命令:
nodeC# /usr/sbin/sndradm -n -e lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
主群集检测到存在辅助群集并启动同步。有关群集状态的信息,请参阅 Sun StorageTek Availability Suite 的系统日志文件 /var/adm。
对 Sun StorageTek Availability Suite 软件使用以下命令:
nodeC# /usr/sbin/iiadm -e ind \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d201 \ /dev/md/nfsset/rdsk/d202 nodeC# /usr/sbin/iiadm -w \ /dev/md/nfsset/rdsk/d201
对 Sun StorageTek Availability Suite 软件使用以下命令:
nodeC# /usr/sbin/sndradm -I a \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d201 \ /dev/md/nfsset/rdsk/d202
接下来的步骤
请转到如何执行数据复制的示例。
本节描述了如何为示例配置执行数据复制。本节使用了 Sun StorageTek Availability Suite 软件的命令 sndradm 和 iiadm。有关这些命令的更多信息,请参见 Sun StorageTek Availability Suite 文档。
本节包含以下过程:
在此过程中,将主磁盘的主卷复制到辅助磁盘上的主卷。主卷为 d200,远程镜像位图卷为 d203。
对 Sun StorageTek Availability Suite 软件运行以下命令:
nodeA# /usr/sbin/sndradm -P
输出应与以下所示类似:
/dev/md/nfsset/rdsk/d200 -> lhost-reprg-sec:/dev/md/nfsset/rdsk/d200 autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: logging
在日志记录模式下,状态为 logging,自动同步的活动状态为 off。当磁盘上的数据卷被写入时,即更新同一磁盘上的位图文件。
nodeA# lockfs -a -f
对 Sun StorageTek Availability Suite 软件运行以下命令:
nodeA# /usr/sbin/sndradm -n -m lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
对 Sun StorageTek Availability Suite 软件运行以下命令:
nodeA# /usr/sbin/sndradm -n -w lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
对 Sun StorageTek Availability Suite 软件运行以下命令:
nodeA# /usr/sbin/sndradm -P
输出应与以下所示类似:
/dev/md/nfsset/rdsk/d200 -> lhost-reprg-sec:/dev/md/nfsset/rdsk/d200 autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: replicating
在复制模式下,状态为 replicating,而自动同步的活动状态为 on。对主卷进行写入时,由 Sun StorageTek Availability Suite 软件对辅助卷进行更新。
接下来的步骤
请转到如何执行时间点快照。
在此过程中,时间点快照用于将主群集的影子卷同步到主群集的主卷中。主卷为 d200,位图卷为 d203,影子卷为 d201。
开始之前
完成如何执行远程镜像复制中所述的过程。
nodeA# clresource disable nfs-rs
对 Sun StorageTek Availability Suite 软件运行以下命令:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
当磁盘上的数据卷被写入时,即更新同一磁盘上的位图文件。系统不会执行任何复制操作。
对 Sun StorageTek Availability Suite 软件运行以下命令:
nodeA# /usr/sbin/iiadm -u s /dev/md/nfsset/rdsk/d201 nodeA# /usr/sbin/iiadm -w /dev/md/nfsset/rdsk/d201
对 Sun StorageTek Availability Suite 软件运行以下命令:
nodeC# /usr/sbin/iiadm -u s /dev/md/nfsset/rdsk/d201 nodeC# /usr/sbin/iiadm -w /dev/md/nfsset/rdsk/d201
nodeA# clresource enable nfs-rs
对 Sun StorageTek Availability Suite 软件运行以下命令:
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
接下来的步骤
请转到如何检验复制是否已正确配置。
开始之前
完成如何执行时间点快照中所述的过程。
对 Sun StorageTek Availability Suite 软件使用以下命令:
nodeA# /usr/sbin/sndradm -P
输出应与以下所示类似:
/dev/md/nfsset/rdsk/d200 -> lhost-reprg-sec:/dev/md/nfsset/rdsk/d200 autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: replicating
在复制模式下,状态为 replicating,而自动同步的活动状态为 on。对主卷进行写入时,由 Sun StorageTek Availability Suite 软件对辅助卷进行更新。
对 Sun StorageTek Availability Suite 软件使用以下命令:
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
client-machine# umount /dir
nodeA# clresource disable -g nfs-rg + nodeA# clresourcegroup offline nfs-rg
对 Sun StorageTek Availability Suite 软件运行以下命令:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
当磁盘上的数据卷被写入时,即更新同一磁盘上的位图文件。系统不会执行任何复制操作。
nodeC# mount | grep /global/etc
nodeC# fsck -y /dev/md/nfsset/rdsk/d200
nodeC# clresourcegroup online -eM nodeC nfs-rg
您将看到类似下面的提示:
client-machine#
client-machine# mount -o rw lhost-nfsrg-sec:/global/mountpoint /dir
client-machine# ls /dir
nodeC# clresource disable -g nfs-rg + nodeC# clresourcegroup offline nfs-rg
nodeC# umount /global/mountpoint
nodeA# clresourcegroup online -eM nodeA nfs-rg
对 Sun StorageTek Availability Suite 软件运行以下命令:
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 lhost-reprg-sec \ /dev/md/nfsset/rdsk/d200 \ /dev/md/nfsset/rdsk/d203 ip sync
对主卷进行写入时,由 Sun StorageTek Availability Suite 软件对辅助卷进行更新。
另请参见
本节介绍了如何更新 DNS 条目。有关其他信息,请参见管理接管的准则。
本节包含以下过程:
有关说明 DNS 如何将客户机映射到群集的图示,请参见Figure A–6。
有关更多信息,请参见 nsupdate(1M) 手册页。
> update delete lhost-nfsrg-prim A > update delete lhost-nfsrg-sec A > update delete ipaddress1rev.in-addr.arpa ttl PTR lhost-nfsrg-prim > update delete ipaddress2rev.in-addr.arpa ttl PTR lhost-nfsrg-sec
主群集的 IP 地址,按照逆序。
辅助群集的 IP 地址,按照逆序。
有效时间(秒)。典型值为 3600。
将主逻辑主机名映射到辅助群集的 IP 地址,将辅助逻辑主机名映射到主群集的 IP 地址。
> update add lhost-nfsrg-prim ttl A ipaddress2fwd > update add lhost-nfsrg-sec ttl A ipaddress1fwd > update add ipaddress2rev.in-addr.arpa ttl PTR lhost-nfsrg-prim > update add ipaddress1rev.in-addr.arpa ttl PTR lhost-nfsrg-sec
辅助群集的 IP 地址,按照正序。
主群集的 IP 地址,按照正序。