本章提供了透過 Sun StorEdge Availability Suite 3.1 軟體在叢集之間配置資料複製的準則。
其中也包含如何使用 Sun StorEdge Availability Suite 3.1 軟體為 NFS 應用程式配置資料複製的範例。 該範例使用特定叢集配置,並提供有關如何執行個別作業的詳細資訊。 它不包含其他應用程式或其他叢集配置所需要的所有步驟。
本章包含下列小節:
本章包含以下程序︰
本節介紹了災難偏差,並說明了 Sun StorEdge Availability Suite 3.1 軟體使用的資料複製方法。
災難偏差是指當主要叢集發生故障時,系統在替代叢集上復原應用程式的能力。 災難偏差以資料複製與故障轉移為基礎。
資料複製是指將資料從主要叢集複製到備份叢集或次要叢集。 透過資料複製,次要叢集便具有主要叢集資料的最新副本。 可以將次要叢集放置在遠離主要叢集的位置。
故障轉移指將主要叢集的資源群組或裝置群組自動重新放置在次要叢集內。 如果主要叢集發生故障,便立即可以在次要叢集上使用應用程式與資料。
本節說明了 Sun StorEdge Availability Suite 3.1 軟體使用的遠端鏡像複製方法與即時快照方法。 此軟體使用 sndradm(1RPC) 與 iiadm(1II) 指令來複製資料。 如需有關這些指令的詳細資訊,請參閱Sun Cluster 3.0 and Sun StorEdge Software Integration Guide。
在圖 6–1 中闡明了遠端鏡像複製。 透過 TCP/IP 連線,將主要磁碟主容體的資料複製到次要磁碟的主容體。 遠端鏡像點陣圖用於追蹤主要磁碟主容體與次要磁碟主容體之間的差異。
可以即時同步或非同步地執行遠端鏡像複製。 可以個別地配置每個叢集內的每個容體集,以進行同步複製或非同步複製。
在同步資料複製中,直到更新遠端容體後才會確認寫入作業已完成。
在非同步資料複製中,在更新遠端容體之前便會確認寫入作業已完成。 非同步資料複製為遠距離和低頻寬傳輸提供了更大的靈活性。
在圖 6–2 中闡明了即時快照。 每個磁碟主容體的資料會複製到同一個磁碟的陰影容體中。 即時點陣圖追蹤主容體與陰影容體之間的差異。 將資料複製到陰影容體時,會重設即時點陣圖。
下圖闡明了如何在配置範例中使用遠端鏡像複製與即時快照。
本節提供了在叢集中配置資料複製的準則。 本節還包含關於複製資源群組與應用程式資源群組的配置提示。 在您為叢集配置資料複製時,請使用這些準則。
本節討論下列主題:
複製資源群組將 Sun StorEdge Availability Suite 3.1 軟體控制下的裝置群組與邏輯主機名稱資源搭配在一起。 複製資源群組必須具備下列特性︰
是故障轉移資源群組
故障轉移資源每次只能在一個節點上執行。 發生故障轉移時,故障轉移資源將參與故障轉移。
邏輯主機名稱必須為主要叢集所有。 在發生故障轉移或切換保護移轉之後,邏輯主機名稱必須為次要叢集所有。 網域名稱系統 (DNS) 用於將邏輯主機名稱與叢集關聯起來。
具有 HAStoragePlus 資源
在切換保護移轉或故障轉移複製資源群組時,HAStoragePlus 資源將強制執行裝置群組的切換保護移轉。 在切換保護移轉裝置群組時,Sun Cluster 軟體也會強制執行複製資源群組的切換保護移轉。 這樣,複製資源群組與裝置群組總是由同一個節點搭配或主控。
必須在 HAStoragePlus 資源中定義下列延伸屬性︰
GlobalDevicePaths。 此延伸屬性定義某個容體所屬的裝置群組。
AffinityOn property = True。 當複製資源群組進行切換保護移轉或故障轉移時,此延伸屬性會導致裝置群組發生切換保護移轉或故障轉移。 此功能稱為親合性切換保護移轉。
如需有關 HAStoragePlus 的詳細資訊,請參閱 SUNW.HAStoragePlus(5) 線上說明手冊。
例如,devicegroup-stor-rg。
在主要叢集與次要叢集上都處於線上狀態
為了具備高度可用性,必須將應用程式作為應用程式資源群組中的資源進行管理。 可以為故障轉移應用程式或可縮放式應用程式配置應用程式資源群組。
在主要叢集上配置的應用程式資源與應用程式資源群組,也必須在次要叢集上進行配置。 並且,必須將應用程式資源存取的資料複製到次要叢集。
本節提供了下列應用程式資源群組的配置準則︰
在故障轉移應用程式中,一個應用程式每次只在一個節點上執行。 如果該節點發生故障,應用程式將故障轉移至同一個叢集內的其他節點。 故障轉移應用程式的資源群組必須具備下列特性︰
當切換保護移轉或故障轉移應用程式資源群組時,讓 HAStoragePlus 資源強制執行裝置群組的切換保護移轉。
裝置群組與複製資源群組和應用程式資源群組搭配在一起。 因此,應用程式資源群組的切換保護移轉會強制執行裝置群組和複製資源群組的切換保護移轉。 應用程式資源群組、複製資源群組與裝置群組由同一個節點主控。
不過請注意,裝置群組或複製資源群組的切換保護移轉或故障轉移,不會導致應用程式資源群組發生切換保護移轉或故障轉移。
如果全域掛載了應用程式資料,則不要求一定在應用程式資源群組中提供 HAStoragePlus 資源,但建議提供該資源。
如果在本機掛載了應用程式資料,則必須在應用程式資源群組中提供 HAStoragePlus 資源。
沒有 HAStoragePlus 資源,應用程式資源群組的切換保護移轉或故障轉移將不會觸發複製資源群組和裝置群組的切換保護移轉或故障轉移。 在發生切換保護移轉或故障轉移之後,應用程式資源群組、複製資源群組與裝置群組將不由同一個節點主控。
如需有關 HAStoragePlus 的詳細資訊,請參閱 SUNW.HAStoragePlus(5) 線上說明手冊。
必須在主要叢集上處於線上狀態,在次要叢集上處於離線狀態
當次要叢集轉換為主要叢集時,必須使應用程式資源群組在次要叢集上連線。
下圖闡明了在故障轉移應用程式中應用程式資源群組與複製資源群組的配置。
在可縮放式應用程式中,應用程式在數個節點上執行以建立單一的邏輯服務。 如果正在執行可縮放式應用程式的節點發生故障,將不會發生故障轉移。 應用程式會繼續在其他節點上執行。
如果將可縮放式應用程式作為應用程式資源群組中的資源來管理,便無須將應用程式資源群組與裝置群組搭配在一起。 因此,無須為應用程式資源群組建立 HAStoragePlus 資源。
下圖闡明了可縮放式應用程式中資源群組的配置。
如果主要叢集發生故障,必須儘快將應用程式切換保護移轉至次要叢集。 若要啟用次要叢集來接管,必須更新 DNS。 另外,必須將次要容體掛載於應用程式檔案系統的掛載點目錄上。
DNS 使某個用戶端與某個應用程式的邏輯主機名稱關聯起來。 在發生故障轉移或切換保護移轉之後,必須移除主要叢集的 DNS 對映,並且必須建立次要叢集的 DNS 對映。 下圖顯示了 DNS 將用戶端對映至叢集的方式。
若要更新 DNS,請使用 nsupdate 指令。 如需相關資訊,請參閱 nsupdate(1M) 線上說明手冊。 如需如何處理故障轉移或切換保護移轉的範例,請參閱如何處理故障轉移或切換保護移轉的範例。
在修復之後,可使主要叢集恢復連線。 若要切換回原始主要叢集,請執行下列步驟︰
使主要叢集與次要叢集同步,以確保主要容體是最新的。
更新 DNS,以便用戶端可以存取主要叢集上的應用程式。
將主要容體掛載到應用程式檔案系統的掛載點目錄上。
本節提供了有關如何透過 Sun StorEdge Availability Suite 3.1 軟體為 NFS 應用程式配置資料複製的逐步作業範例。
圖 6–7 闡明了配置範例中使用的叢集配置。 配置範例中的次要叢集包含一個節點,但可以使用其他叢集配置。
表 6–1 概括了配置範例需要的硬體與軟體。 必須先將作業環境、Sun Cluster 軟體以及容體管理程式軟體安裝在叢集節點上,然後再安裝 Sun StorEdge Availability Suite 3.1 軟體與修補程式。
表 6–1 需要的硬體與軟體
硬體或軟體 |
需求 |
---|---|
節點硬體 |
使用 Solaris 作業環境的所有伺服器都支援 Sun StorEdge Availability Suite 3.1 軟體。 如需有關要使用之硬體的資訊,請參閱Sun Cluster 3.x Hardware Administration Manual。 |
磁碟空間 |
大約 11 Mb。 |
作業環境 |
Sun Cluster 軟體支援的 Solaris 8 或 Solaris 9 版本。 所有節點必須使用相同版本的作業環境。 如需有關安裝的資訊,請參閱安裝軟體 。 |
Sun Cluster 軟體 |
Sun Cluster 3.1 4/04 軟體。 如需有關安裝的資訊,請參閱第 2章, 安裝和配置 Sun Cluster 軟體與如何在單一節點叢集上安裝 Sun Cluster 軟體 。 |
容體管理程式軟體 |
Solstice DiskSuite/Solaris Volume Manager 或 VERITAS Volume Manager (VxVM)。 所有節點必須使用相同版本的容體管理程式軟體。 有關安裝的資訊在安裝和配置 Solstice DiskSuite/Solaris Volume Manager 軟體 與SPARC: 安裝與配置 VxVM 軟體 中。 |
Sun StorEdge Availability Suite 3.1 軟體 |
如需有關如何安裝軟體的資訊,請參閱Sun StorEdge Availability Suite 3.1 Point-in-Time Copy Software Installation Guide與Sun StorEdge Availability Suite 3.1 Remote Mirror Software Installation Guide。 |
Sun StorEdge Availability Suite 3.1 軟體修補程式 |
如需有關最新修補程式的資訊,請參閱 http://sunsolve.sun.com。 |
本章說明了為 NFS 應用程式配置磁碟裝置群組與資源群組的方式。 下列表格列示了為配置範例建立的群組與資源的名稱。
表 6–2 配置範例中群組與資源的摘要
群組或資源 |
名稱 |
說明 |
---|---|---|
磁碟裝置群組 |
devicegroup |
磁碟裝置群組。 |
複製資源群組與資源 |
devicegroup-stor-rg |
複製資源群組。 |
lhost-reprg-prim、lhost-reprg-sec |
主要叢集與次要叢集上的複製資源群組的邏輯主機名稱。 |
|
devicegroup-stor |
複製資源群組的 HAStoragePlus 資源。 |
|
應用程式資源群組與資源 |
nfs-rg |
應用程式資源群組。 |
lhost-nfsrg-prim、lhost-nfsrg-sec |
主要叢集與次要叢集上的應用程式資源群組的邏輯主機名稱。 |
|
nfs-dg-rs |
應用程式的 HAStoragePlus 資源。 |
|
nfs-rs |
NFS 資源。 |
除 devicegroup-stor-rg 之外,群組與資源的名稱是可以依需要進行變更的範例名稱。 複製資源群組的名稱格式必須為 devicegroup-stor-rg 。
本節說明了在主要叢集與次要叢集上配置磁碟裝置群組的方式。 此配置範例使用 VxVM 軟體。 如需有關 Solstice DiskSuite/Solaris Volume Manager 軟體的資訊,請參閱第 3章, 安裝和配置 Solstice DiskSuite/Solaris Volume Manager 軟體。
下圖闡明了在磁碟裝置群組中建立的容體。
本節中定義的容體不得包含磁碟標籤私有區域,如磁柱 0。VxVM 軟體自動管理此限制。
建立包含四個容體 (容體 1 至容體 4) 的磁碟群組。
如需有關透過 VxVM 軟體配置磁碟群組的資訊,請參閱第 4章, SPARC: 安裝與配置 VERITAS Volume Manager。
以超級使用者身份存取 nodeA。
nodeA 是主要叢集的第一個節點。 如需有關哪個節點是 nodeA 的提示,請參閱圖 6–7。
配置磁碟群組以建立磁碟裝置群組。
nodeA# /usr/cluster/bin/scconf -a -D type=vxvm,name=devicegroup \ ,nodelist=nodeA:nodeB |
磁碟裝置群組稱為 devicegroup。
啟動磁碟裝置群組。
nodeA# /usr/cluster/bin/scswitch -z -D devicegroup -h nodeA |
使磁碟裝置群組與 Sun Cluster 軟體同步。
nodeA# /usr/cluster/bin/scconf -c -D name=devicegroup,sync |
為磁碟裝置群組建立檔案系統。
nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol01 < /dev/null nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol02 < /dev/null nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol03 < /dev/null nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol04 < /dev/null |
透過將下列實體加入 nodeA 與 nodeB 上的 /.rhosts 檔,在主要叢集與次要叢集的節點之間啟用遠端存取。
nodeC + + root |
請遵循如何在主要叢集上配置磁碟裝置群組中的程序執行,但下列情況除外︰
在 nodeA 與 nodeB 上,建立 NFS 檔案系統的掛載點目錄。
例如:
nodeA# mkdir /global/mountpoint |
在 nodeA 與 nodeB 上,配置要在掛載點上自動掛載的主容體。
在 nodeA 與 nodeB 上的 /etc/vfstab 檔中,加入或替代下列文字。 文字必須在單一行上。
/dev/vx/dsk/devicegroup/vol01 /dev/vx/rdsk/devicegroup/vol01 \ /global/mountpoint ufs 3 no global,logging |
如需有關磁碟裝置群組中所用容體名稱與容體編號的提示,請參閱圖 6–8。
在 nodeA 上,為 Sun StorEdge Availability Suite 3.1 軟體使用的檔案系統資訊建立容體。
nodeA# /usr/sbin/vxassist -g devicegroup make vol05 120m disk1 |
容體 5 包含 Sun StorEdge Availability Suite 3.1 軟體使用的檔案系統資訊。
在 nodeA 上,使裝置群組與 Sun Cluster 軟體重新同步。
nodeA# /usr/cluster/bin/scconf -c -D name=devicegroup,sync |
在 nodeA 上,為容體 5 建立檔案系統。
nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol05 |
在 nodeA 與 nodeB 上,為容體 5 建立掛載點。
例如:
nodeA# mkdir /global/etc |
在 nodeA 與 nodeB 上,配置要在掛載點上自動掛載的容體 5。
在 nodeA 與 nodeB 上的 /etc/vfstab 檔中,加入或替代下列文字。 文字必須在單一行上。
/dev/vx/dsk/devicegroup/vol05 /dev/vx/rdsk/devicegroup/vol05 \ /global/etc ufs 3 yes global,logging |
在 nodeA 上掛載容體 5。
nodeA# mount /global/etc |
使遠端系統可以存取容體 5。
請重複執行如何為 NFS 應用程式配置主要叢集上的檔案系統中的程序,但下列情況除外︰
用 nodeC 替代 nodeA。
不使用 nodeB。
以超級使用者身份存取 nodeA。
將 SUNW.HAStoragePlus 註冊為資源類型。
nodeA# /usr/cluster/bin/scrgadm -a -t SUNW.HAStoragePlus |
為磁碟裝置群組建立複製資源群組。
nodeA# /usr/cluster/bin/scrgadm -a -g devicegroup-stor-rg -h nodeA,nodeB |
磁碟裝置群組的名稱。
複製資源群組的名稱。
指定可以主控複製資源群組的叢集節點。
將 SUNW.HAStoragePlus 資源加入至複製資源群組。
nodeA# /usr/cluster/bin/scrgadm -a -j devicegroup-stor \ -g devicegroup-stor-rg -t SUNW.HAStoragePlus \ -x GlobalDevicePaths=devicegroup \ -x AffinityOn=True |
複製資源群組的 HAStoragePlus 資源。
指定 Sun StorEdge Availability Suite 3.1 軟體依賴的延伸屬性。
指定 SUNW.HAStoragePlus 資源必須為由 -x GlobalDevicePaths= 定義的整體裝置與叢集檔案系統執行親合性切換保護移轉。 因此,當複製資源群組發生故障轉移或切換保護移轉時,將對關聯的裝置群組執行切換保護移轉。
如需有關這些延伸屬性的詳細資訊,請參閱 SUNW.HAStoragePlus(5) 線上說明手冊。
將邏輯主機名稱資源加入至複製資源群組。
nodeA# /usr/cluster/bin/scrgadm -a -L \ -j lhost-reprg-prim -g devicegroup-stor-rg -l lhost-reprg-prim |
其中,lhost-reprg-prim 是主要叢集上複製資源群組的邏輯主機名稱。
啟用資源、管理資源群組,並使資源群組上線。
nodeA# /usr/cluster/bin/scswitch -Z -g devicegroup-stor-rg nodeA# /usr/cluster/bin/scswitch -z -g devicegroup-stor-rg -h nodeA |
驗證資源群組是否處於線上狀態。
nodeA# /usr/cluster/bin/scstat -g |
檢查資源群組狀態欄位,以確認 nodeA 與 nodeB 上的複製資源群組處於線上狀態。
請重複執行如何在主要叢集上建立複製資源群組中的程序,但下列情況除外︰
用 nodeC 替代 nodeA。
不使用 nodeB。
用 lhost-reprg-sec 替代對 lhost-reprg-prim 的參考。
本節說明了為 NFS 應用程式建立應用程式資源群組的方式。 本節中的程序專用於此應用程式。 這些程序不可用於其他類型的應用程式。
以超級使用者身份存取 nodeA。
將 SUNW.nfs 註冊為資源類型。
nodeA# scrgadm -a -t SUNW.nfs |
如果尚未將 SUNW.HAStoragePlus 註冊為資源類型,請進行註冊。
nodeA# scrgadm -a -t SUNW.HAStoragePlus |
為 devicegroup 建立應用程式資源群組。
nodeA# scrgadm -a -g nfs-rg \ -y Pathprefix=/global/etc \ -y Auto_start_on_new_cluster=False \ -y RG_dependencies=devicegroup-stor-rg |
為應用程式資源群組的名稱。
指定群組中的資源可以寫入管理檔案的目錄。
指定應用程式資源群組並非自動啟動。
指定應用程式資源群組所依賴的資源群組。 在此範例中,應用程式資源群組依賴複製資源群組。
如果將應用程式資源群組切換保護移轉至新的主要節點,將自動切換保護移轉複製資源群組。 但是,如果將複製資源群組切換保護移轉至新的主要節點,則必須手動切換保護移轉應用程式資源群組。
將 SUNW.HAStoragePlus 資源加入至應用程式資源群組。
nodeA# scrgadm -a -j nfs-dg-rs -g nfs-rg \ -t SUNW.HAStoragePlus \ -x FileSystemMountPoints=/global/mountpoint \ -x AffinityOn=True |
為 NFS 應用程式的 HAStoragePlus 資源的名稱。
指定檔案系統的掛載點為全域掛載點。
指定資源的類型為 SUNW.HAStoragePlus。
指定應用程式資源必須為由 -x GlobalDevicePaths= 定義的整體裝置與叢集檔案系統執行親合性切換保護移轉。 因此,當應用程式資源群組發生故障轉移或切換保護移轉時,將對關聯的裝置群組執行切換保護移轉。
如需有關這些延伸屬性的詳細資訊,請參閱 SUNW.HAStoragePlus(5) 線上說明手冊。
將邏輯主機名稱資源加入至應用程式資源群組。
nodeA# /usr/cluster/bin/scrgadm -a -L -j lhost-nfsrg-prim -g nfs-rg \ -l lhost-nfsrg-prim |
其中,lhost-nfsrg-prim 是主要叢集上應用程式資源群組的邏輯主機名稱。
啟用資源、管理應用程式資源群組,並使應用程式資源群組上線。
驗證應用程式資源群組是否處於線上狀態。
nodeA# /usr/cluster/bin/scstat -g |
檢查資源群組狀態欄位,以確定應用程式資源群組在 nodeA 與 nodeB 上是否處於線上狀態。
依如何在主要叢集上建立應用程式資源群組中步驟 1 至步驟 6 的說明建立應用程式資源群組,但下列情況除外︰
用 nodeC 替代 nodeA。
忽略對 nodeB 的參考。
用 lhost-nfsrg-sec 替代對 lhost-nfsrg-prim 的參考。
確定應用程式資源群組未在 nodeC 上連線。
nodeC# /usr/cluster/bin/scswitch -n -j nfs-rs nodeC# /usr/cluster/bin/scswitch -n -j nfs-dg-rs nodeC# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-sec nodeC# /usr/cluster/bin/scswitch -z -g nfs-rg -h "" |
在重新開機後,此資源群組仍然處於離線狀態,這是因為 Auto_start_on_new_cluster=False。
如果整體容體掛載於主要叢集上,則從次要叢集上卸載該整體容體。
nodeC# umount /global/mountpoint |
如果容體掛載於次要叢集上,同步化將失敗。
本節說明了為配置範例啟用資料複製的方式。 本節使用 Sun StorEdge Availability Suite 3.1 軟體指令 sndradm 與 iiadm。 如需有關這些指令的詳細資訊,請參閱Sun Cluster 3.0 and Sun StorEdge Software Integration Guide。
以超級使用者身份存取 nodeA。
清除所有異動。
nodeA# /usr/sbin/lockfs -a -f |
確認邏輯主機名稱 lhost-reprg-prim 與 lhost-reprg-sec 均處於線上狀態。
nodeA# /usr/cluster/bin/scstat -g |
檢查資源群組的狀態欄位。
啟用從主要叢集到次要叢集的遠端鏡像複製。
此步驟會啟用從主要叢集主容體到次要叢集主容體的複製。 另外,此步驟還啟用對容體 4 上的遠端鏡像點陣圖的複製。
如果主要叢集與次要叢集未同步,請執行此指令︰
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
如果主要叢集與次要叢集同步,請執行此指令︰
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -E lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
啟用自動同步化。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -a on lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
此步驟啟用自動同步化。 如果將自動同步化的作用中狀態設定為 on,則當系統重新開機或發生故障時將重新同步化容體集。
驗證叢集是否處於記錄模式下。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
輸出結果應該如下:
/dev/vx/rdsk/devicegroup/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01 autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devicegroup, state: logging |
在記錄模式下,狀態為 logging,自動同步化的作用中狀態為 off。 當寫入到磁碟上的資料容體時,將更新同一個磁碟上的點陣圖檔案。
啟用即時快照。
nodeA# /usr/opt/SUNWesm/sbin/iiadm -e ind \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol02 \ /dev/vx/rdsk/devicegroup/vol03 nodeA# /usr/opt/SUNWesm/sbin/iiadm -w \ /dev/vx/rdsk/devicegroup/vol02 |
此步驟使主要磁碟上的主容體複製到同一個磁碟上的陰影容體中。 在此範例中,主容體為容體 1,陰影容體為容體 2,即時點陣圖容體為容體 3。
將即時快照附加至遠端鏡像集。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -I a \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol02 \ /dev/vx/rdsk/devicegroup/vol03 |
此步驟使即時快照與遠端鏡像容體集關聯起來。 Sun StorEdge Availability Suite 3.1 軟體確保執行即時快照後才會發生遠端鏡像複製。
以超級使用者身份存取 nodeC。
清除所有異動。
nodeC# /usr/sbin/lockfs -a -f |
啟用從主要叢集到次要叢集的遠端鏡像複製。
nodeC# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
主要叢集偵測到次要叢集存在並開始同步化。 請參閱系統日誌檔 /var/opt/SUNWesm/ds.log,以取得有關叢集狀態的資訊。
啟用獨立的即時快照。
nodeC# /usr/opt/SUNWesm/sbin/iiadm -e ind \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol02 \ /dev/vx/rdsk/devicegroup/vol03 nodeC# /usr/opt/SUNWesm/sbin/iiadm -w \ /dev/vx/rdsk/devicegroup/vol02 |
將即時快照附加至遠端鏡像集。
nodeC# /usr/opt/SUNWesm/sbin/sndradm -I a \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol02 \ /dev/vx/rdsk/devicegroup/vol03 |
本節說明了為配置範例執行資料複製的方式。 本節使用 Sun StorEdge Availability Suite 3.1 軟體指令 sndradm 與 iiadm。 如需有關這些指令的詳細資訊,請參閱Sun Cluster 3.0 and Sun StorEdge Software Integration Guide。
在此程序中,將主要磁碟的主容體複製到次要磁碟的主容體。 主容體為容體 1,遠端鏡像點陣圖容體為容體 4。
以超級使用者身份存取 nodeA。
驗證叢集是否處於記錄模式下。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
輸出結果應該如下:
/dev/vx/rdsk/devicegroup/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01 autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devicegroup, state: logging |
在記錄模式下,狀態為 logging,自動同步化的作用中狀態為 off。 當寫入到磁碟上的資料容體時,將更新同一個磁碟上的點陣圖檔案。
清除所有異動。
nodeA# /usr/sbin/lockfs -a -f |
將 nodeA 的主容體複製到 nodeC 的主容體。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -m lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
等待直至複製完成並且容體已同步化。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -w lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
確認叢集處於複製模式下。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
輸出結果應該如下:
/dev/vx/rdsk/devicegroup/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01 autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devicegroup, state: replicating |
在複製模式下,狀態為 replicating,自動同步化的作用中狀態為 on。 寫入到主要容體時,Sun StorEdge Availability Suite 3.1 軟體將更新次要容體。
在此程序中,即時快照用於使主要叢集的陰影容體與主要叢集的主容體同步。 主容體為容體 1,陰影容體為容體 2。
以超級使用者身份存取 nodeA。
停止 nodeA 上執行的應用程式。
nodeA# /usr/cluster/bin/scswitch -n -j nfs-rs |
將主要叢集置於記錄模式下。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
當寫入到磁碟上的資料容體時,將更新同一個磁碟上的點陣圖檔案。 未進行複製。
使主要叢集的陰影容體與主要叢集的主容體同步。
nodeA# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devicegroup/vol02 nodeA# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devicegroup/vol02 |
使次要叢集的陰影容體與次要叢集的主容體同步。
nodeC# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devicegroup/vol02 nodeC# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devicegroup/vol02 |
在 nodeA 上重新啟動應用程式。
nodeA# /usr/cluster/bin/scswitch -e -j nfs-rs |
重新同步化次要容體與主要容體。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
驗證主要叢集處於複製模式下,並且開啟了自動同步化功能。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
輸出結果應該如下:
/dev/vx/rdsk/devicegroup/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01 autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devicegroup, state: replicating |
在複製模式下,狀態為 replicating,自動同步化的作用中狀態為 on。 寫入到主要容體時,Sun StorEdge Availability Suite 3.1 軟體將更新次要容體。
如果主要叢集不在複製模式下,請將其置於複製模式下,如下所示︰
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
在用戶端機器上建立一個目錄。
將該目錄掛載到主要叢集上的應用程式中,然後顯示掛載的目錄。
將該目錄掛載到次要叢集上的應用程式中,然後顯示掛載的目錄。
卸載主要叢集上應用程式的目錄。
client-machine# umount /dir |
使應用程式資源群組在主要叢集上離線。
nodeA# /usr/cluster/bin/scswitch -n -j nfs-rs nodeA# /usr/cluster/bin/scswitch -n -j nfs-dg-rs nodeA# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-prim nodeA# /usr/cluster/bin/scswitch -z -g nfs-rg -h "" |
將主要叢集置於記錄模式下。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
當寫入到磁碟上的資料容體時,將更新同一個磁碟上的點陣圖檔案。 未進行複製。
使應用程式資源群組在次要叢集上連線。
nodeC# /usr/cluster/bin/scswitch -Z -g nfs-rg |
以超級使用者身份存取用戶端機器。
將看到如下提示︰
client-machine# |
將在步驟 2 中建立的目錄掛載到次要叢集的應用程式中。
client-machine# mount -o rw lhost-nfsrg-sec:/global/mountpoint /dir |
顯示掛載的目錄。
client-machine# ls /dir |
將主要叢集上的應用程式傳回到掛載的目錄。
使應用程式資源群組在次要叢集上離線。
nodeC# /usr/cluster/bin/scswitch -n -j nfs-rs nodeC# /usr/cluster/bin/scswitch -n -j nfs-dg-rs nodeC# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-sec nodeC# /usr/cluster/bin/scswitch -z -g nfs-rg -h "" |
請確定已從次要叢集上卸載整體容體。
nodeC# umount /global/mountpoint |
使應用程式資源群組在主要叢集上連線。
nodeA# /usr/cluster/bin/scswitch -Z -g nfs-rg |
將主要叢集置於複製模式下。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
寫入到主要容體時,Sun StorEdge Availability Suite 3.1 軟體將更新次要容體。
本節說明了引發切換保護移轉的方式以及將應用程式傳輸到次要叢集的方式。 在發生切換保護移轉或故障轉移之後,您必須更新 DNS 項目並配置應用程式以在次要容體中讀取和寫入。
將主要叢集置於記錄模式下。
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
當寫入到磁碟上的資料容體時,將更新同一個磁碟上的點陣圖檔案。 未進行複製。
確認主要叢集與次要叢集都處於記錄模式下,並且關閉了自動同步化功能。
在 nodeA 上,執行此指令︰
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
輸出結果應該如下:
/dev/vx/rdsk/devicegroup/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01 autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag: devicegroup, state: logging |
在 nodeC 上,執行此指令︰
nodeC# /usr/opt/SUNWesm/sbin/sndradm -P |
輸出結果應該如下:
/dev/vx/rdsk/devicegroup/vol01 <- lhost-reprg-prim:/dev/vx/rdsk/devicegroup/vol01 autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag: devicegroup, state: logging |
對於 nodeA 與 nodeC,狀態應該為 logging,自動同步化的作用中狀態應該為 off。
確認次要叢集已準備好接管主要叢集。
nodeC# /usr/sbin/fsck -y /dev/vx/rdsk/devicegroup/vol01 |
切換保護移轉至次要叢集。
nodeC# scswitch -Z -g nfs-rg nodeC# scswitch -Z -g nfs-rg -h nodeC |
如需有關 DNS 如何將用戶端對映至叢集的圖例,請參閱圖 6–6。
啟動 nsupdate 指令。
如需相關資訊,請參閱 nsupdate(1M) 線上說明手冊。
移除用戶端機器與主要叢集上應用程式資源群組邏輯主機名稱之間的目前 DNS 對映。
> update delete client-machine A > update delete IPaddress1.in-addr.arpa TTL PTR client machine |
為用戶端的完整名稱。 例如 mymachine.mycompany.com。
為邏輯主機名稱 lhost-nfsrg-prim 的 IP 位址,以反向順序表示。
為持續時間,以秒為單位。 典型值為 3600。
在用戶端機器與次要叢集上應用程式資源群組的邏輯主機名稱之間,建立新的 DNS 對映。
> update add client-machine TTL A IPaddress2 > update add IPaddress3.in-addr.arpa TTL PTR client-machine |
為邏輯主機名稱 lhost-nfsrg-sec 的 IP 位址,以正向順序表示。
為邏輯主機名稱 lhost-nfsrg-sec 的 IP 位址,以反向順序表示。
client-machine# mount -o rw lhost-nfsrg-sec:/global/mountpoint /xxx |
掛載點是在如何為 NFS 應用程式配置主要叢集上的檔案系統的步驟 1 中建立的。
確認次要叢集具有掛載點的寫入存取權。
client-machine# touch /xxx/data.1 client-machine# umount /xxx |