本節提供了有關如何透過 Sun StorEdge Availability Suite 3.1 軟體為 NFS 應用程式配置資料複製的逐步作業範例。
圖 6–7 闡明了配置範例中使用的叢集配置。 配置範例中的次要叢集包含一個節點,但可以使用其他叢集配置。
表 6–1 概括了配置範例需要的硬體與軟體。 必須先將作業環境、Sun Cluster 軟體以及容體管理程式軟體安裝在叢集節點上,然後再安裝 Sun StorEdge Availability Suite 3.1 軟體與修補程式。
表 6–1 需要的硬體與軟體
硬體或軟體 |
需求 |
---|---|
節點硬體 |
使用 Solaris 作業環境的所有伺服器都支援 Sun StorEdge Availability Suite 3.1 軟體。 如需有關要使用之硬體的資訊,請參閱Sun Cluster 3.x Hardware Administration Manual。 |
磁碟空間 |
大約 11 Mb。 |
作業環境 |
Sun Cluster 軟體支援的 Solaris 8 或 Solaris 9 版本。 所有節點必須使用相同版本的作業環境。 如需有關安裝的資訊,請參閱安裝軟體 。 |
Sun Cluster 軟體 |
Sun Cluster 3.1 4/04 軟體。 如需有關安裝的資訊,請參閱第 2章, 安裝和配置 Sun Cluster 軟體與如何在單一節點叢集上安裝 Sun Cluster 軟體 。 |
容體管理程式軟體 |
Solstice DiskSuite/Solaris Volume Manager 或 VERITAS Volume Manager (VxVM)。 所有節點必須使用相同版本的容體管理程式軟體。 有關安裝的資訊在安裝和配置 Solstice DiskSuite/Solaris Volume Manager 軟體 與SPARC: 安裝與配置 VxVM 軟體 中。 |
Sun StorEdge Availability Suite 3.1 軟體 |
如需有關如何安裝軟體的資訊,請參閱Sun StorEdge Availability Suite 3.1 Point-in-Time Copy Software Installation Guide與Sun StorEdge Availability Suite 3.1 Remote Mirror Software Installation Guide。 |
Sun StorEdge Availability Suite 3.1 軟體修補程式 |
如需有關最新修補程式的資訊,請參閱 http://sunsolve.sun.com。 |
本章說明了為 NFS 應用程式配置磁碟裝置群組與資源群組的方式。 下列表格列示了為配置範例建立的群組與資源的名稱。
表 6–2 配置範例中群組與資源的摘要
群組或資源 |
名稱 |
說明 |
---|---|---|
磁碟裝置群組 |
devicegroup |
磁碟裝置群組。 |
複製資源群組與資源 |
devicegroup-stor-rg |
複製資源群組。 |
lhost-reprg-prim、lhost-reprg-sec |
主要叢集與次要叢集上的複製資源群組的邏輯主機名稱。 |
|
devicegroup-stor |
複製資源群組的 HAStoragePlus 資源。 |
|
應用程式資源群組與資源 |
nfs-rg |
應用程式資源群組。 |
lhost-nfsrg-prim、lhost-nfsrg-sec |
主要叢集與次要叢集上的應用程式資源群組的邏輯主機名稱。 |
|
nfs-dg-rs |
應用程式的 HAStoragePlus 資源。 |
|
nfs-rs |
NFS 資源。 |
除 devicegroup-stor-rg 之外,群組與資源的名稱是可以依需要進行變更的範例名稱。 複製資源群組的名稱格式必須為 devicegroup-stor-rg 。
本節說明了在主要叢集與次要叢集上配置磁碟裝置群組的方式。 此配置範例使用 VxVM 軟體。 如需有關 Solstice DiskSuite/Solaris Volume Manager 軟體的資訊,請參閱第 3章, 安裝和配置 Solstice DiskSuite/Solaris Volume Manager 軟體。
下圖闡明了在磁碟裝置群組中建立的容體。
本節中定義的容體不得包含磁碟標籤私有區域,如磁柱 0。VxVM 軟體自動管理此限制。
建立包含四個容體 (容體 1 至容體 4) 的磁碟群組。
如需有關透過 VxVM 軟體配置磁碟群組的資訊,請參閱第 4章, SPARC: 安裝與配置 VERITAS Volume Manager。
以超級使用者身份存取 nodeA。
nodeA 是主要叢集的第一個節點。 如需有關哪個節點是 nodeA 的提示,請參閱圖 6–7。
配置磁碟群組以建立磁碟裝置群組。
nodeA# /usr/cluster/bin/scconf -a -D type=vxvm,name=devicegroup \ ,nodelist=nodeA:nodeB |
磁碟裝置群組稱為 devicegroup。
啟動磁碟裝置群組。
nodeA# /usr/cluster/bin/scswitch -z -D devicegroup -h nodeA |
使磁碟裝置群組與 Sun Cluster 軟體同步。
nodeA# /usr/cluster/bin/scconf -c -D name=devicegroup,sync |
為磁碟裝置群組建立檔案系統。
nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol01 < /dev/null nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol02 < /dev/null nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol03 < /dev/null nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol04 < /dev/null |
透過將下列實體加入 nodeA 與 nodeB 上的 /.rhosts 檔,在主要叢集與次要叢集的節點之間啟用遠端存取。
nodeC + + root |
請遵循如何在主要叢集上配置磁碟裝置群組中的程序執行,但下列情況除外︰
在 nodeA 與 nodeB 上,建立 NFS 檔案系統的掛載點目錄。
例如:
nodeA# mkdir /global/mountpoint |
在 nodeA 與 nodeB 上,配置要在掛載點上自動掛載的主容體。
在 nodeA 與 nodeB 上的 /etc/vfstab 檔中,加入或替代下列文字。 文字必須在單一行上。
/dev/vx/dsk/devicegroup/vol01 /dev/vx/rdsk/devicegroup/vol01 \ /global/mountpoint ufs 3 no global,logging |
如需有關磁碟裝置群組中所用容體名稱與容體編號的提示,請參閱圖 6–8。
在 nodeA 上,為 Sun StorEdge Availability Suite 3.1 軟體使用的檔案系統資訊建立容體。
nodeA# /usr/sbin/vxassist -g devicegroup make vol05 120m disk1 |
容體 5 包含 Sun StorEdge Availability Suite 3.1 軟體使用的檔案系統資訊。
在 nodeA 上,使裝置群組與 Sun Cluster 軟體重新同步。
nodeA# /usr/cluster/bin/scconf -c -D name=devicegroup,sync |
在 nodeA 上,為容體 5 建立檔案系統。
nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol05 |
在 nodeA 與 nodeB 上,為容體 5 建立掛載點。
例如:
nodeA# mkdir /global/etc |
在 nodeA 與 nodeB 上,配置要在掛載點上自動掛載的容體 5。
在 nodeA 與 nodeB 上的 /etc/vfstab 檔中,加入或替代下列文字。 文字必須在單一行上。
/dev/vx/dsk/devicegroup/vol05 /dev/vx/rdsk/devicegroup/vol05 \ /global/etc ufs 3 yes global,logging |
在 nodeA 上掛載容體 5。
nodeA# mount /global/etc |
使遠端系統可以存取容體 5。
請重複執行如何為 NFS 應用程式配置主要叢集上的檔案系統中的程序,但下列情況除外︰
用 nodeC 替代 nodeA。
不使用 nodeB。
以超級使用者身份存取 nodeA。
將 SUNW.HAStoragePlus 註冊為資源類型。
nodeA# /usr/cluster/bin/scrgadm -a -t SUNW.HAStoragePlus |
為磁碟裝置群組建立複製資源群組。
nodeA# /usr/cluster/bin/scrgadm -a -g devicegroup-stor-rg -h nodeA,nodeB |
磁碟裝置群組的名稱。
複製資源群組的名稱。
指定可以主控複製資源群組的叢集節點。
將 SUNW.HAStoragePlus 資源加入至複製資源群組。
nodeA# /usr/cluster/bin/scrgadm -a -j devicegroup-stor \ -g devicegroup-stor-rg -t SUNW.HAStoragePlus \ -x GlobalDevicePaths=devicegroup \ -x AffinityOn=True |
複製資源群組的 HAStoragePlus 資源。
指定 Sun StorEdge Availability Suite 3.1 軟體依賴的延伸屬性。
指定 SUNW.HAStoragePlus 資源必須為由 -x GlobalDevicePaths= 定義的整體裝置與叢集檔案系統執行親合性切換保護移轉。 因此,當複製資源群組發生故障轉移或切換保護移轉時,將對關聯的裝置群組執行切換保護移轉。
如需有關這些延伸屬性的詳細資訊,請參閱 SUNW.HAStoragePlus(5) 線上說明手冊。
將邏輯主機名稱資源加入至複製資源群組。
nodeA# /usr/cluster/bin/scrgadm -a -L \ -j lhost-reprg-prim -g devicegroup-stor-rg -l lhost-reprg-prim |
其中,lhost-reprg-prim 是主要叢集上複製資源群組的邏輯主機名稱。
啟用資源、管理資源群組,並使資源群組上線。
nodeA# /usr/cluster/bin/scswitch -Z -g devicegroup-stor-rg nodeA# /usr/cluster/bin/scswitch -z -g devicegroup-stor-rg -h nodeA |
驗證資源群組是否處於線上狀態。
nodeA# /usr/cluster/bin/scstat -g |
檢查資源群組狀態欄位,以確認 nodeA 與 nodeB 上的複製資源群組處於線上狀態。
請重複執行如何在主要叢集上建立複製資源群組中的程序,但下列情況除外︰
用 nodeC 替代 nodeA。
不使用 nodeB。
用 lhost-reprg-sec 替代對 lhost-reprg-prim 的參考。
本節說明了為 NFS 應用程式建立應用程式資源群組的方式。 本節中的程序專用於此應用程式。 這些程序不可用於其他類型的應用程式。
以超級使用者身份存取 nodeA。
將 SUNW.nfs 註冊為資源類型。
nodeA# scrgadm -a -t SUNW.nfs |
如果尚未將 SUNW.HAStoragePlus 註冊為資源類型,請進行註冊。
nodeA# scrgadm -a -t SUNW.HAStoragePlus |
為 devicegroup 建立應用程式資源群組。
nodeA# scrgadm -a -g nfs-rg \ -y Pathprefix=/global/etc \ -y Auto_start_on_new_cluster=False \ -y RG_dependencies=devicegroup-stor-rg |
為應用程式資源群組的名稱。
指定群組中的資源可以寫入管理檔案的目錄。
指定應用程式資源群組並非自動啟動。
指定應用程式資源群組所依賴的資源群組。 在此範例中,應用程式資源群組依賴複製資源群組。
如果將應用程式資源群組切換保護移轉至新的主要節點,將自動切換保護移轉複製資源群組。 但是,如果將複製資源群組切換保護移轉至新的主要節點,則必須手動切換保護移轉應用程式資源群組。
將 SUNW.HAStoragePlus 資源加入至應用程式資源群組。
nodeA# scrgadm -a -j nfs-dg-rs -g nfs-rg \ -t SUNW.HAStoragePlus \ -x FileSystemMountPoints=/global/mountpoint \ -x AffinityOn=True |
為 NFS 應用程式的 HAStoragePlus 資源的名稱。
指定檔案系統的掛載點為全域掛載點。
指定資源的類型為 SUNW.HAStoragePlus。
指定應用程式資源必須為由 -x GlobalDevicePaths= 定義的整體裝置與叢集檔案系統執行親合性切換保護移轉。 因此,當應用程式資源群組發生故障轉移或切換保護移轉時,將對關聯的裝置群組執行切換保護移轉。
如需有關這些延伸屬性的詳細資訊,請參閱 SUNW.HAStoragePlus(5) 線上說明手冊。
將邏輯主機名稱資源加入至應用程式資源群組。
nodeA# /usr/cluster/bin/scrgadm -a -L -j lhost-nfsrg-prim -g nfs-rg \ -l lhost-nfsrg-prim |
其中,lhost-nfsrg-prim 是主要叢集上應用程式資源群組的邏輯主機名稱。
啟用資源、管理應用程式資源群組,並使應用程式資源群組上線。
驗證應用程式資源群組是否處於線上狀態。
nodeA# /usr/cluster/bin/scstat -g |
檢查資源群組狀態欄位,以確定應用程式資源群組在 nodeA 與 nodeB 上是否處於線上狀態。
依如何在主要叢集上建立應用程式資源群組中步驟 1 至步驟 6 的說明建立應用程式資源群組,但下列情況除外︰
用 nodeC 替代 nodeA。
忽略對 nodeB 的參考。
用 lhost-nfsrg-sec 替代對 lhost-nfsrg-prim 的參考。
確定應用程式資源群組未在 nodeC 上連線。
nodeC# /usr/cluster/bin/scswitch -n -j nfs-rs nodeC# /usr/cluster/bin/scswitch -n -j nfs-dg-rs nodeC# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-sec nodeC# /usr/cluster/bin/scswitch -z -g nfs-rg -h "" |
在重新開機後,此資源群組仍然處於離線狀態,這是因為 Auto_start_on_new_cluster=False。
如果整體容體掛載於主要叢集上,則從次要叢集上卸載該整體容體。
nodeC# umount /global/mountpoint |
如果容體掛載於次要叢集上,同步化將失敗。
本節說明了為配置範例啟用資料複製的方式。 本節使用 Sun StorEdge Availability Suite 3.1 軟體指令 sndradm 與 iiadm。 如需有關這些指令的詳細資訊,請參閱Sun Cluster 3.0 and Sun StorEdge Software Integration Guide。
以超級使用者身份存取 nodeA。
清除所有異動。
nodeA# /usr/sbin/lockfs -a -f |
確認邏輯主機名稱 lhost-reprg-prim 與 lhost-reprg-sec 均處於線上狀態。
nodeA# /usr/cluster/bin/scstat -g |
檢查資源群組的狀態欄位。
啟用從主要叢集到次要叢集的遠端鏡像複製。
此步驟會啟用從主要叢集主容體到次要叢集主容體的複製。 另外,此步驟還啟用對容體 4 上的遠端鏡像點陣圖的複製。
如果主要叢集與次要叢集未同步,請執行此指令︰
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
如果主要叢集與次要叢集同步,請執行此指令︰
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -E lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
啟用自動同步化。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -a on lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
此步驟啟用自動同步化。 如果將自動同步化的作用中狀態設定為 on,則當系統重新開機或發生故障時將重新同步化容體集。
驗證叢集是否處於記錄模式下。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
輸出結果應該如下:
/dev/vx/rdsk/devicegroup/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01 autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devicegroup, state: logging |
在記錄模式下,狀態為 logging,自動同步化的作用中狀態為 off。 當寫入到磁碟上的資料容體時,將更新同一個磁碟上的點陣圖檔案。
啟用即時快照。
nodeA# /usr/opt/SUNWesm/sbin/iiadm -e ind \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol02 \ /dev/vx/rdsk/devicegroup/vol03 nodeA# /usr/opt/SUNWesm/sbin/iiadm -w \ /dev/vx/rdsk/devicegroup/vol02 |
此步驟使主要磁碟上的主容體複製到同一個磁碟上的陰影容體中。 在此範例中,主容體為容體 1,陰影容體為容體 2,即時點陣圖容體為容體 3。
將即時快照附加至遠端鏡像集。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -I a \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol02 \ /dev/vx/rdsk/devicegroup/vol03 |
此步驟使即時快照與遠端鏡像容體集關聯起來。 Sun StorEdge Availability Suite 3.1 軟體確保執行即時快照後才會發生遠端鏡像複製。
以超級使用者身份存取 nodeC。
清除所有異動。
nodeC# /usr/sbin/lockfs -a -f |
啟用從主要叢集到次要叢集的遠端鏡像複製。
nodeC# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
主要叢集偵測到次要叢集存在並開始同步化。 請參閱系統日誌檔 /var/opt/SUNWesm/ds.log,以取得有關叢集狀態的資訊。
啟用獨立的即時快照。
nodeC# /usr/opt/SUNWesm/sbin/iiadm -e ind \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol02 \ /dev/vx/rdsk/devicegroup/vol03 nodeC# /usr/opt/SUNWesm/sbin/iiadm -w \ /dev/vx/rdsk/devicegroup/vol02 |
將即時快照附加至遠端鏡像集。
nodeC# /usr/opt/SUNWesm/sbin/sndradm -I a \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol02 \ /dev/vx/rdsk/devicegroup/vol03 |
本節說明了為配置範例執行資料複製的方式。 本節使用 Sun StorEdge Availability Suite 3.1 軟體指令 sndradm 與 iiadm。 如需有關這些指令的詳細資訊,請參閱Sun Cluster 3.0 and Sun StorEdge Software Integration Guide。
在此程序中,將主要磁碟的主容體複製到次要磁碟的主容體。 主容體為容體 1,遠端鏡像點陣圖容體為容體 4。
以超級使用者身份存取 nodeA。
驗證叢集是否處於記錄模式下。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
輸出結果應該如下:
/dev/vx/rdsk/devicegroup/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01 autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devicegroup, state: logging |
在記錄模式下,狀態為 logging,自動同步化的作用中狀態為 off。 當寫入到磁碟上的資料容體時,將更新同一個磁碟上的點陣圖檔案。
清除所有異動。
nodeA# /usr/sbin/lockfs -a -f |
將 nodeA 的主容體複製到 nodeC 的主容體。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -m lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
等待直至複製完成並且容體已同步化。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -w lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
確認叢集處於複製模式下。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
輸出結果應該如下:
/dev/vx/rdsk/devicegroup/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01 autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devicegroup, state: replicating |
在複製模式下,狀態為 replicating,自動同步化的作用中狀態為 on。 寫入到主要容體時,Sun StorEdge Availability Suite 3.1 軟體將更新次要容體。
在此程序中,即時快照用於使主要叢集的陰影容體與主要叢集的主容體同步。 主容體為容體 1,陰影容體為容體 2。
以超級使用者身份存取 nodeA。
停止 nodeA 上執行的應用程式。
nodeA# /usr/cluster/bin/scswitch -n -j nfs-rs |
將主要叢集置於記錄模式下。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
當寫入到磁碟上的資料容體時,將更新同一個磁碟上的點陣圖檔案。 未進行複製。
使主要叢集的陰影容體與主要叢集的主容體同步。
nodeA# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devicegroup/vol02 nodeA# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devicegroup/vol02 |
使次要叢集的陰影容體與次要叢集的主容體同步。
nodeC# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devicegroup/vol02 nodeC# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devicegroup/vol02 |
在 nodeA 上重新啟動應用程式。
nodeA# /usr/cluster/bin/scswitch -e -j nfs-rs |
重新同步化次要容體與主要容體。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
驗證主要叢集處於複製模式下,並且開啟了自動同步化功能。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
輸出結果應該如下:
/dev/vx/rdsk/devicegroup/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01 autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devicegroup, state: replicating |
在複製模式下,狀態為 replicating,自動同步化的作用中狀態為 on。 寫入到主要容體時,Sun StorEdge Availability Suite 3.1 軟體將更新次要容體。
如果主要叢集不在複製模式下,請將其置於複製模式下,如下所示︰
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
在用戶端機器上建立一個目錄。
將該目錄掛載到主要叢集上的應用程式中,然後顯示掛載的目錄。
將該目錄掛載到次要叢集上的應用程式中,然後顯示掛載的目錄。
卸載主要叢集上應用程式的目錄。
client-machine# umount /dir |
使應用程式資源群組在主要叢集上離線。
nodeA# /usr/cluster/bin/scswitch -n -j nfs-rs nodeA# /usr/cluster/bin/scswitch -n -j nfs-dg-rs nodeA# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-prim nodeA# /usr/cluster/bin/scswitch -z -g nfs-rg -h "" |
將主要叢集置於記錄模式下。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
當寫入到磁碟上的資料容體時,將更新同一個磁碟上的點陣圖檔案。 未進行複製。
使應用程式資源群組在次要叢集上連線。
nodeC# /usr/cluster/bin/scswitch -Z -g nfs-rg |
以超級使用者身份存取用戶端機器。
將看到如下提示︰
client-machine# |
將在步驟 2 中建立的目錄掛載到次要叢集的應用程式中。
client-machine# mount -o rw lhost-nfsrg-sec:/global/mountpoint /dir |
顯示掛載的目錄。
client-machine# ls /dir |
將主要叢集上的應用程式傳回到掛載的目錄。
使應用程式資源群組在次要叢集上離線。
nodeC# /usr/cluster/bin/scswitch -n -j nfs-rs nodeC# /usr/cluster/bin/scswitch -n -j nfs-dg-rs nodeC# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-sec nodeC# /usr/cluster/bin/scswitch -z -g nfs-rg -h "" |
請確定已從次要叢集上卸載整體容體。
nodeC# umount /global/mountpoint |
使應用程式資源群組在主要叢集上連線。
nodeA# /usr/cluster/bin/scswitch -Z -g nfs-rg |
將主要叢集置於複製模式下。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
寫入到主要容體時,Sun StorEdge Availability Suite 3.1 軟體將更新次要容體。
本節說明了引發切換保護移轉的方式以及將應用程式傳輸到次要叢集的方式。 在發生切換保護移轉或故障轉移之後,您必須更新 DNS 項目並配置應用程式以在次要容體中讀取和寫入。
將主要叢集置於記錄模式下。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
當寫入到磁碟上的資料容體時,將更新同一個磁碟上的點陣圖檔案。 未進行複製。
確認主要叢集與次要叢集都處於記錄模式下,並且關閉了自動同步化功能。
在 nodeA 上,執行此指令︰
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
輸出結果應該如下:
/dev/vx/rdsk/devicegroup/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01 autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag: devicegroup, state: logging |
在 nodeC 上,執行此指令︰
nodeC# /usr/opt/SUNWesm/sbin/sndradm -P |
輸出結果應該如下:
/dev/vx/rdsk/devicegroup/vol01 <- lhost-reprg-prim:/dev/vx/rdsk/devicegroup/vol01 autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag: devicegroup, state: logging |
對於 nodeA 與 nodeC,狀態應該為 logging,自動同步化的作用中狀態應該為 off。
確認次要叢集已準備好接管主要叢集。
nodeC# /usr/sbin/fsck -y /dev/vx/rdsk/devicegroup/vol01 |
切換保護移轉至次要叢集。
nodeC# scswitch -Z -g nfs-rg nodeC# scswitch -Z -g nfs-rg -h nodeC |
如需有關 DNS 如何將用戶端對映至叢集的圖例,請參閱圖 6–6。
啟動 nsupdate 指令。
如需相關資訊,請參閱 nsupdate(1M) 線上說明手冊。
移除用戶端機器與主要叢集上應用程式資源群組邏輯主機名稱之間的目前 DNS 對映。
> update delete client-machine A > update delete IPaddress1.in-addr.arpa TTL PTR client machine |
為用戶端的完整名稱。 例如 mymachine.mycompany.com。
為邏輯主機名稱 lhost-nfsrg-prim 的 IP 位址,以反向順序表示。
為持續時間,以秒為單位。 典型值為 3600。
在用戶端機器與次要叢集上應用程式資源群組的邏輯主機名稱之間,建立新的 DNS 對映。
> update add client-machine TTL A IPaddress2 > update add IPaddress3.in-addr.arpa TTL PTR client-machine |
為邏輯主機名稱 lhost-nfsrg-sec 的 IP 位址,以正向順序表示。
為邏輯主機名稱 lhost-nfsrg-sec 的 IP 位址,以反向順序表示。
client-machine# mount -o rw lhost-nfsrg-sec:/global/mountpoint /xxx |
掛載點是在如何為 NFS 應用程式配置主要叢集上的檔案系統的步驟 1 中建立的。
確認次要叢集具有掛載點的寫入存取權。
client-machine# touch /xxx/data.1 client-machine# umount /xxx |