本章說明 Sun Cluster 的可用資料複製方法。您必須先瞭解以主機為基礎與以儲存為基礎的資料複製,才能選取最適合您的叢集的複製方法組合。
此 Sun Cluster 發行版本支援以下 Sun 可用性套裝軟體發行版本:
Sun StorageTek Availability Suite 4
Sun StorEdge Availability Suite 3.2.1
除非有另外特別註明,在本手冊中,Sun StorageTek Availability Suite 軟體的參照也適用於 Sun StorEdge Availability Suite 軟體。
本章包含以下各節:
資料複製 是將資料從主要儲存裝置複製到備份或次要裝置。如果主要裝置發生故障,您的資料則可從次要裝置取得。這樣資料複製就可協助為您的叢集確保高可用性並提供毀損容錯解決方案。
Sun Cluster 支援以下資料複製方法:
以主機為基礎的資料複製使用特殊軟體來即時複製實際處於分散節點之間的磁碟區。遠端鏡像複製可讓資料從主要節點的主要磁碟區被複製到實際處於分散的次要節點中的主要磁碟區。遠端鏡像點陣圖可追蹤主要磁碟上的主磁碟區與次要磁碟上的主磁碟區之間的差異。
以主機為基礎的資料複製是一種比較經濟的資料複製解決方案,因為它不需要儲存陣列。以主機為基礎的資料複製使用本機連結的磁碟。不過,以主機為基礎的資料複製會使用主機資源以執行資料複製,且不支援可延展的應用程式 (例如 Oracle RAC)。如需更多有關在區域叢集環境中使用以主機為基礎的資料複製之資訊,請參閱「使用以主機為基礎的資料複製」。如需更多有關在兩個或多個叢集之間使用以主機為基礎的資料複製之資訊,請參閱「Sun Cluster Geographic Edition Data Replication Guide for Hitachi TrueCopy 」。
以儲存為基礎的資料複製使用特殊軟體將資料複製工作移出叢集節點之外,並移至儲存裝置上。軟體重新分配可以使某些節點免於為求達到叢集請求而須分配力量。以儲存為基礎的資料複製在區域叢集配置中尤為重要,因為此類型的資料複製支援可延展的應用程式並卸載主機。此外,以儲存為基礎的複製支援可延展的應用程式,例如 Oracle RAC。如需更多有關在區域叢集環境中使用以儲存為基礎的資料複製之資訊,請參閱使用以儲存為基礎的資料複製。如需關於在兩個或兩個以上的叢集間使用以儲存為基礎的複製的資訊,以及關於可使程序自動化的 Sun Cluster GeoEdition 的資訊,請參閱「Sun Cluster Geographic Edition Data Replication Guide for Sun StorageTek Availability Suite 」。
Sun StorageTek Availability Suite 軟體為實際位置分散的叢集間以主機為基礎的資料複製提供一套機制。範例:使用 Sun StorEdge Availability Suite 或 Sun StorageTek Availability Suite 軟體配置以主機為基礎的資料複製在本章結尾提供一個此類叢集配置的完整範例。
本節說明在兩個空間的區域叢集中以主機為基礎的資料複製。一個具有以主機為基礎的資料複製之兩個空間配置定義如下:
兩個不同的空間。
兩個空間各擁有一個節點和磁碟子系統。
在這些空間中跨磁碟子系統產生複製的資料。
至少一個磁碟子系統。這已連線至兩個主機,用來做為法定裝置,並位於其中一個空間內。
本節中的範例以圖解說明一般區域叢集配置,並非要指出要求的或建議的配置。為求簡單,圖表與解說僅著重在瞭解區域叢集的獨特功能。例如,圖中未顯示公用網路乙太網路連線。
在此配置中,如果法定磁碟遺失,系統則無法自動回復。若要回復,則需 Sun 服務供應商的介入。
圖 4–1 類似標準的非區域配置。最顯著的差異在於區域叢集中已增加「光纖通道」 切換器,可從多重模式光纖切換成單一模式光纖。
以儲存為基礎的資料複製是使用安裝於儲存裝置上的軟體來管理複製。此類軟體專門針對您特定的儲存裝置。在配置以儲存為基礎的資料複製時,請參照您的儲存裝置所隨附的文件。
視您使用的軟體而定,您可以藉由以儲存為基礎的資料複製來使用自動或手動容錯移轉。Sun Cluster 可使用 Hitachi TrueCopy 軟體同時支援副本的手動與自動容錯移轉。
本節說明區域叢集中,使用以儲存為基礎的資料複製。圖 4–2 顯示兩個空間配置的範例,資料已於該處在兩個儲存陣列之間複製。在此配置中,主要儲存陣列包含在第一個空間,它在此處提供資料給兩個空間中的節點。主要儲存陣列也提供具有複製資料的次要儲存陣列。
在一般叢集作業期間,叢集會看不見次要儲存陣列。不過,如果主要儲存陣列變得無法使用,可以透過 Sun 服務供應商將次要儲存陣列手動配置到叢集中。
如圖 4–2 所示,法定裝置位於未複製的磁碟區上。已複製的磁碟區不能用來做為法定裝置。
以儲存為基礎的資料複製可以在 Sun Cluster 環境中同步或非同步執行,視使用的應用程式類型而定。
若要確保資料完整性,請使用多重路徑與適當的 RAID 套裝軟體。下列清單包含執行區域叢集配置 (使用以儲存裝置為基礎的資料複製) 時的一些注意事項。
節點至節點的距離受到「Sun Cluster 光纖通道」與互連基礎架構所限制。如需有關目前的限制與支援技術之資訊,請連絡您的 Sun 服務供應商。
請勿將已複製的磁碟區配置為法定裝置。找出未複製磁碟區上的任何法定裝置。
確保叢集節點只能看到資料的主要副本。否則,磁碟區管理程式可能會嘗試存取資料的主要與次要副本,而這會導致資料毀損,因為次要副本是唯讀狀態。
當您建立使用複製裝置的磁碟群組或磁碟組時,請對磁碟群組或磁碟組和 Hitachi TrueCopy 複本組使用相同的名稱。
請參閱您的儲存陣列所隨附的文件,以取得有關控制資料副本可見性的資訊。
特定針對應用程式的資料可能不適用於非同步資料複製。利用您對應用程式運作方式的瞭解,決定如何跨儲存裝置以最好的方式複製應用程式專用資料。
若為自動容錯移轉配置叢集,請使用同步複製。
有關為已複製磁碟區的自動容錯移轉配置叢集的指示,請參閱管理以儲存為基礎的複製裝置。
不支援 Oracle Real Application Clusters (RAC)。
只支援同步模式。
複製的裝置不能為法定裝置。
不支援用於 Sun Cluster 的 CVM 與 Solaris Volume Manager。
與所有區域叢集一樣,使用以儲存為基礎的資料複製的那些叢集,一般來說,不需要在它們遇到單一故障時介入。不過,如果您使用的是手動容錯移轉,而且您失去了存放您主要儲存裝置的空間 (如圖 4–2 所示),將會在雙節點叢集中發生問題。剩下的節點不能保留法定裝置,而且不能啟動為叢集成員。在此情況下,您的叢集需要以下手動介入:
您的 Sun 服務供應商必須重新配置要啟動做為叢集成員的剩餘節點。
您或您的 Sun 服務供應商必須將您的次要儲存裝置的未複製磁碟區配置為法定裝置。
您或您的 Sun 服務供應商必須將要使用次要儲存裝置的剩餘節點配置為主要儲存裝置。此重新配置可能會包含重建磁碟區管理程式磁碟區、復原資料或變更應用程式與儲存磁碟區的關聯。
在設定將 Hitachi TrueCopy 軟體用於以儲存為基礎的資料複製之裝置群組時,觀察以下實作:
請隨時使用最高的隔離層級data,以防止容錯移轉至舊的資料備份。
每個資源群組建立一個 Hitachi TrueCopy 裝置群組。一對一關係應存在於叢集資源群組、叢集裝置群組、VxVM 磁碟群組及 Hitachi TrueCopy 裝置群組之間。
全域檔案系統磁碟區與容錯移轉檔案系統磁碟區不能在相同的 Hitachi TrueCopy 裝置群組中混用。
應啟動所有 RAID 管理程式實例且隨時保持執行狀態。
本節提供在叢集間使用 Sun StorageTek Availability Suite 3.1、3.2 軟體或 Sun StorageTek Availability Suite 4.0 軟體來配置以主機為基礎的資料複製之完整範例。此範例圖解說明適用於 NFS 應用程式的完整叢集配置,提供了有關個別作業能如何執行的詳細資訊。所有作業都應在全域區域中執行。此範例不包括其他應用程式或其他叢集配置所需的所有步驟。
如果您是使用以角色為基礎的存取控制 (RBAC) 而不是超級使用者來存取叢集節點,請確定您可成為為所有 Sun Cluster 指令提供授權之 RBAC 角色。如果使用者不是超級使用者,這一連串的資料複製程序需要以下 Sun Cluster RBAC 授權。
solaris.cluster.modify
solaris.cluster.admin
solaris.cluster.read
請參閱第 2 章, Sun Cluster 與 RBAC以取得更多有關使用 RBAC 角色的資訊。關於每個 Sun Cluster 子指令需要的 RBAC 授權,請參閱 Sun Cluster 線上手冊。
本小節介紹災難偏差,並說明 Sun StorageTek Availability Suite 軟體所使用的資料複製方法。
災難偏差是指當主要叢集發生故障時,系統在替代叢集上復原應用程式的能力。災難偏差以資料複製與故障轉移為基礎。容錯移轉是指自動將資源群組或裝置群組從主要叢集遷移至次要叢集。如果主要叢集發生故障,便立即可以在次要叢集上使用應用程式與資料。
本小節說明 Sun StorageTek Availability Suite 軟體所使用的遠端鏡像複製法和即時快照法。此軟體使用 sndradm(1RPC) 與 iiadm(1II) 指令複製資料。
圖 4–3 顯示遠端鏡像複製。透過 TCP/IP 連線,將主要磁碟主磁碟區的資料複製到次要磁碟的主磁碟區。遠端鏡像點陣圖可追蹤主要磁碟上的主磁碟區與次要磁碟上的主磁碟區之間的差異。
遠端鏡像複製既可以即時同步執行,也可以非同步執行。可以個別地配置每個叢集內的每個磁碟區集,以進行同步複製或非同步複製。
圖 4–4 顯示 即時快照。每個磁碟主磁碟區的資料會複製到同一個磁碟的陰影磁碟區中。即時點陣圖追蹤主磁碟區與陰影磁碟區之間的差異。將資料複製到陰影磁碟區時,會重設即時點陣圖。
圖 4–5 圖解說明遠端鏡像複製與即時快照如何用於此配置範例中。
本小節提供在叢集間配置資料複製的準則。本節還包含關於複製資源群組與應用程式資源群組的配置提示。在您為叢集配置資料複製時,請使用這些準則。
本小節論述以下主題︰
複製資源群組將 Sun StorageTek Availability Suite 軟體控制下的裝置群組與邏輯主機名稱資源搭配在一起。複製資源群組必須具備下列特性︰
是故障轉移資源群組
故障轉移資源每次只能在一個節點上執行。發生故障轉移時,故障轉移資源將參與故障轉移。
邏輯主機名稱必須為主要叢集所有。在發生容錯移轉或交換之後,邏輯主機名稱必須為次要叢集所有。網域名稱系統 (DNS) 用於將邏輯主機名稱與叢集關聯起來。
具有 HAStoragePlus 資源
在切換保護移轉或故障轉移複製資源群組時,HAStoragePlus 資源將強制執行裝置群組的切換保護移轉。在切換保護移轉裝置群組時,Sun Cluster 軟體也會強制執行複製資源群組的切換保護移轉。這樣,複製資源群組與裝置群組總是由同一個節點進行搭配或主控。
必須在 HAStoragePlus 資源中定義下列延伸特性︰
AffinityOn property = True。當複製資源群組進行切換保護移轉或故障轉移時,此延伸特性會導致裝置群組發生切換保護移轉或故障轉移。此功能稱為親合性切換保護移轉。
如需更多關於 HAStoragePlus 的資訊,請參閱SUNW.HAStoragePlus(5) 線上手冊。
例如,devgrp-stor-rg。
在主要叢集與次要叢集上都處於線上狀態
若要具有高度可用性,則必須在應用程式資源群組中,將應用程式作為資源進行管理。可以為故障轉移應用程式或可延展應用程式配置應用程式資源群組。
在主要叢集上配置的應用程式資源與應用程式資源群組,也必須在次要叢集上進行配置。並且,必須將應用程式資源存取的資料複製到次要叢集。
本節提供了下列應用程式資源群組的配置準則︰
在防故障備用應用程式中,應用程式每次在一個節點上執行。如果該節點發生故障,應用程式將故障轉移至同一個叢集內的其他節點。故障轉移應用程式的資源群組必須具備下列特性︰
當切換保護移轉或故障轉移應用程式資源群組時,讓 HAStoragePlus 資源強制執行裝置群組的切換保護移轉。
裝置群組與複製資源群組和應用程式資源群組搭配在一起。因此,應用程式資源群組的切換保護移轉會強制執行裝置群組和複製資源群組的切換保護移轉。應用程式資源群組、複製資源群組與裝置群組由同一個節點主控。
不過請注意,裝置群組或複製資源群組的切換保護移轉或故障轉移,不會導致應用程式資源群組發生切換保護移轉或故障轉移。
如果全域掛載了應用程式資料,則在應用程式資源群組中不必存在 HAStoragePlus 資源,但建議存在該資源。
如果本機掛載了應用程式資料,則在應用程式資源群組中必須存在 HAStoragePlus 資源。
沒有 HAStoragePlus 資源,應用程式資源群組的切換保護移轉或故障轉移將不會觸發複製資源群組和裝置群組的切換保護移轉或故障轉移。在發生切換保護移轉或故障轉移之後,應用程式資源群組、複製資源群組與裝置群組將不由同一個節點主控。
如需更多關於 HAStoragePlus 的資訊,請參閱SUNW.HAStoragePlus(5) 線上手冊。
必須在主要叢集上處於線上狀態,在次要叢集上處於離線狀態
當次要叢集轉換為主要叢集時,必須使應用程式資源群組在次要叢集上連線。
圖 4–6 圖說明了在容錯移轉應用程式中應用程式資源群組與複製資源群組的配置。
在可延展應用程式中,應用程式在數個節點上執行,以建立單一邏輯服務。如果正在執行可延展式應用程式的節點發生故障,將不會發生故障轉移。應用程式會繼續在其他節點上執行。
如果將可延展式應用程式作為應用程式資源群組中的資源來管理,便無須將應用程式資源群組與裝置群組搭配在一起。因此,無須為應用程式資源群組建立 HAStoragePlus 資源。
可延展應用程式的資源群組必須具備下列特性︰
圖 4–7 說明了可延展式應用程式中資源群組的配置。
如果主要叢集發生故障,則必須儘快將應用程式切換保護移轉至次要叢集。若要啟用次要叢集來接管,必須更新 DNS。
DNS 將用戶端與應用程式的邏輯主機名稱相關聯。在發生故障轉移或切換保護移轉之後,必須移除主要叢集的 DNS 對應,並且必須建立次要叢集的 DNS 對應。圖 4–8 說明 DNS 如何將用戶端對映至叢集。
若要更新 DNS,請使用 nsupdate 指令。如需資訊,請參閱 nsupdate(1M) 線上手冊。如需如何管理容錯移轉或切換保護移轉的範例,請參閱管理容錯移轉或切換保護移轉之範例
修復後,可讓主要叢集返回線上狀態。若要切換回原始的主要叢集,請執行以下作業:
使主要叢集與次要叢集同步,以確保主要磁碟區是最新的。
更新 DNS,以便用戶端可以存取主要叢集上的應用程式。
表 4–1 列出如何使用 Sun StorageTek Availability Suite 軟體為 NFS 應用程式配置資料複製之範例中的作業。
表 4–1 作業圖:資料複製配置範例
作業 |
操作說明 |
---|---|
1. 連接與安裝叢集。 | |
2. 主要叢集與次要叢集上配置裝置群組、NFS 應用程式的檔案系統和資源群組。 | |
3. 在主要叢集與次要叢集上啟用資料複製。 | |
4. 執行資料複製。 | |
5. 驗證資料複製配置。 |
圖 4–9 說明配置範例使用的叢集配置。配置範例中的次要叢集包含一個節點,但可以使用其他叢集配置。
表 4–2 摘要出配置範例所需要的硬體和軟體。必須先將 Solaris 作業系統、Sun Cluster 軟體,以及磁碟區管理程式軟體安裝在叢集節點上,然後才可安裝 Sun StorageTek Availability Suite 軟體與修補程式。
表 4–2 需要的硬體與軟體
硬體或軟體 |
需求 |
---|---|
節點硬體 |
在所有使用 Solaris 作業系統的伺服器上,均支援 Sun StorageTek Availability Suite 軟體。 如需關於應使用何種硬體的資訊,請參閱「Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS」。 |
磁碟空間 |
約 15 MB。 |
Solaris 作業系統 |
Sun Cluster 軟體支援的 Solaris 作業系統發行版本。 所有節點均必須使用相同版本的 Solaris 作業系統。 如需關於安裝的資訊,請參閱「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」。 |
Sun Cluster 軟體 |
Sun Cluster 3.2 軟體。 如需關於安裝的資訊,請參閱「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」。 |
磁碟區管理程式軟體 |
Solstice DiskSuite 或 Solaris Volume Manager 軟體或 VERITAS Volume Manager (VxVM) 軟體。 所有節點必須使用相同版本的磁碟區管理程式軟體。 安裝資訊位於「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」中的第 4 章「配置 Solaris Volume Manager 軟體」與「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」中的第 5 章「安裝與配置 VERITAS Volume Manager」 。 |
Sun StorageTek Availability Suite 軟體 |
如需有關如何安裝此軟體的資訊,請參閱適用於您的 Sun StorageTek Availability Suite 或 Sun StorageTek Availability Suite 軟體發行版本之安裝手冊:
|
Sun StorageTek Availability Suite 軟體修補程式 |
如需有關最新的修補程式之資訊,請參閱 http://www.sunsolve.com。 |
本小節說明如何為 NFS 應用程式配置裝置群組與資源群組。如需附加資訊,請參閱配置複製資源群組與配置應用程式資源群組。
本小節包含以下程序:
下表列出了為配置範例建立的群組與資源的名稱。
表 4–3 配置範例中群組與資源的摘要
群組或資源 |
名稱 |
說明 |
---|---|---|
裝置群組 |
devgrp |
裝置群組 |
複製資源群組與資源 |
devgrp-stor-rg |
複製資源群組 |
lhost-reprg-prim、lhost-reprg-sec |
主要叢集與次要叢集上的複製資源群組之邏輯主機名稱 |
|
devgrp-stor |
複製資源群組的 HAStoragePlus 資源 |
|
應用程式資源群組與資源 |
nfs-rg |
應用程式資源群組 |
lhost-nfsrg-prim、lhost-nfsrg-sec |
主要叢集與次要叢集上的應用程式資源群組之邏輯主機名稱 |
|
nfs-dg-rs |
應用程式的 HAStoragePlus 資源 |
|
nfs-rs |
NFS 資源 |
除 devgrp-stor-rg 之外,群組與資源的名稱是可以依需要進行變更的範例名稱。複製資源群組的名稱格式必須為 devicegroupname-stor-rg。
此配置範例使用 VxVM 軟體。如需關於 Solstice DiskSuite 或 Solaris Volume Manager 軟體的資訊,請參閱「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」中的「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」中的第 4 章「配置 Solaris Volume Manager 軟體」。
下圖說明在裝置群組中建立的磁碟區。
本程序中定義的磁碟區不得包含磁碟標籤私有區域,例如磁柱 0。VxVM 軟體會自動管理此限制。
請確定您已完成以下作業:
閱讀以下小節中的準則與要求:
依照連接與安裝叢集中的說明,設置主要叢集與次要叢集。
以 超級使用者或成為提供 solaris.cluster.modify RBAC 授權的角色 存取 nodeA。
節點 nodeA 是主要叢集中的第一個節點。如需有關哪個節點為 nodeA 的提示,請參閱圖 4–9。
在包含磁碟區 1 (vol01) 至磁碟區 4 (vol04) 的 nodeA 上建立磁碟群組。
如需藉由使用 VxVM 軟體配置磁碟群組的資訊,請參閱「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」中的 「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」中的第 5 章「安裝與配置 VERITAS Volume Manager」。
配置磁碟群組以建立裝置群組。
nodeA# cldevicegroup create -t vxvm -n nodeA nodeB devgrp |
裝置群組稱為 devgrp。
為磁碟裝置建立檔案系統。
nodeA# newfs /dev/vx/rdsk/devgrp/vol01 < /dev/null nodeA# newfs /dev/vx/rdsk/devgrp/vol02 < /dev/null |
vol03 或 vol04 不需要檔案系統,它們被改用做原始磁碟區。
完成如何在主要叢集上配置裝置群組程序。
以 超級使用者或成為提供 solaris.cluster.modify RBAC 授權的角色 存取 nodeC。
在 nodeC 上建立一個包含四個磁碟區的磁碟群組:磁碟區 1 (vol01) 至磁碟區 4 (vol04)。
配置磁碟群組以建立裝置群組。
nodeC# cldevicegroup create -t vxvm -n nodeC devgrp |
裝置群組名為 devgrp。
為磁碟裝置建立檔案系統。
nodeC# newfs /dev/vx/rdsk/devgrp/vol01 < /dev/null nodeC# newfs /dev/vx/rdsk/devgrp/vol02 < /dev/null |
vol03 或 vol04 不需要檔案系統,它們被改用做原始磁碟區。
完成如何在次要叢集上配置裝置群組程序。
在 nodeA 和 nodeB 上,成為 超級使用者或成為提供 solaris.cluster.admin RBAC 授權的角色。
在 nodeA 和 nodeB 上,為 NFS 檔案系統建立掛載點目錄。
例如:
nodeA# mkdir /global/掛載點 |
在 nodeA 與 nodeB 上,配置要在掛載點上自動掛載的主磁碟區。
在 nodeA 與 nodeB 上的 /etc/vfstab 檔中,加入或替代下列文字。文字必須在單一行上。
/dev/vx/dsk/devgrp/vol01 /dev/vx/rdsk/devgrp/vol01 \ /global/掛載點 ufs 3 no global,logging |
如需有關裝置群組中所使用的磁碟區名稱與磁碟區編號的提示,請參閱圖 4–10。
在 nodeA 上,為 Sun Cluster HA for NFS 資料服務使用的檔案系統資訊建立磁碟區。
nodeA# vxassist -g devgrp make vol05 120m 磁碟 1 |
磁碟區 5 (vol05) 包含 Sun Cluster HA for NFS 資料服務所使用的檔案系統資訊。
在 nodeA 上,使裝置群組與 Sun Cluster 軟體重新同步。
nodeA# cldevicegroup sync devgrp |
在 nodeA 上,為 vol05 建立檔案系統。
nodeA# newfs /dev/vx/rdsk/devgrp/vol05 |
在 nodeA 與 nodeB 上,為 vol05 建立掛載點。
以下範例建立掛載點 /global/etc。
nodeA# mkdir /global/etc |
在 nodeA 與 nodeB 上,將 vol05 配置為自動掛載在掛載點上。
在 nodeA 與 nodeB 上的 /etc/vfstab 檔中,加入或替代下列文字。文字必須在單一行上。
/dev/vx/dsk/devgrp/vol05 /dev/vx/rdsk/devgrp/vol05 \ /global/etc ufs 3 yes global,logging |
將 vol05 掛載在 nodeA 上。
nodeA# mount /global/etc |
讓遠端系統可存取 vol05。
在 nodeC,成為 超級使用者或成為提供 solaris.cluster.admin RBAC 授權的角色。
在 nodeC 上,為 NFS 檔案系統建立掛載點目錄。
例如:
nodeC# mkdir /global/掛載點 |
在 nodeC 上,配置要自動掛載在掛載點上的主磁碟區。
在 nodeC 上的 /etc/vfstab 檔案中,增加或替代以下文字。文字必須在單一行上。
/dev/vx/dsk/devgrp/vol01 /dev/vx/rdsk/devgrp/vol01 \ /global/掛載點 ufs 3 no global,logging |
在 nodeC 上,為 Sun Cluster HA for NFS 資料服務所使用的檔案系統資訊建立磁碟區。
nodeC# vxassist -g devgrp make vol05 120m 磁碟 1 |
磁碟區 5 (vol05) 包含 Sun Cluster HA for NFS 資料服務所使用的檔案系統資訊。
在 nodeC 上,重新讓裝置群組與 Sun Cluster 軟體同步化。
nodeC# cldevicegroup sync devgrp |
在 nodeC 上,為 vol05 建立檔案系統。
nodeC# newfs /dev/vx/rdsk/devgrp/vol05 |
在 nodeC 上,為 vol05 建立掛載點。
以下範例建立掛載點 /global/etc。
nodeC# mkdir /global/etc |
在 nodeC 上,將 vol05 配置為在掛載點上進行自動掛載。
在 nodeC 上的 /etc/vfstab 檔案中,增加或替代以下文字。文字必須在單一行上。
/dev/vx/dsk/devgrp/vol05 /dev/vx/rdsk/devgrp/vol05 \ /global/etc ufs 3 yes global,logging |
將 vol05 掛載在 nodeC 上。
nodeC# mount /global/etc |
讓遠端系統可存取 vol05。
請移至如何在主要叢集上建立複製資源群組。
完成如何為 NFS 應用程式配置次要叢集上的檔案系統。程序。
以 超級使用者或成為提供 solaris.cluster.modify、solaris.cluster.admin 及 solaris.cluster.read RBAC 授權的角色 存取 nodeA。
註冊 SUNW.HAStoragePlus 資源類型。
nodeA# clresourcetype register SUNW.HAStoragePlus |
為裝置群組建立複製資源群組。
nodeA# clresourcegroup create -n nodeA,nodeB devgrp-stor-rg |
指定叢集節點 nodeA 與 nodeB 可以控制複製資源群組。
複製資源群組的名稱。在此名稱中,devgrp 指定裝置群組的名稱。
將 SUNW.HAStoragePlus 資源增加至複製資源群組。
nodeA# clresource create -g devgrp-stor-rg -t SUNW.HAStoragePlus \ -p GlobalDevicePaths=devgrp \ -p AffinityOn=True \ devgrp-stor |
指定要新增資源的資源群組。
指定 SUNW.HAStoragePlus 資源必須為由 -x GlobalDevicePaths= 定義的全域裝置與叢集檔案系統執行親合性切換保護移轉。因此,當複製資源群組發生故障轉移或切換保護移轉時,將對關聯的裝置群組執行切換保護移轉。
如需更多關於這些延伸特性的資訊,請參閱SUNW.HAStoragePlus(5) 線上手冊。
將邏輯主機名稱資源加入至複製資源群組。
nodeA# clreslogicalhostname create -g devgrp-stor-rg lhost-reprg-prim |
主要叢集上的複製資源群組的邏輯主機名稱名為 lhost-reprg-prim。
啟用資源、管理資源群組,並使資源群組上線。
nodeA# clresourcegroup online -e -M -n nodeA devgrp-stor-rg |
啟用關聯的資源。
管理資源群組。
指定您要使資源群組上線的節點。
驗證資源群組是否處於線上狀態。
nodeA# clresourcegroup status devgrp-stor-rg |
檢查資源群組狀態欄位,以確認複製資源群組在 nodeA 上處於線上狀態。
請移至如何在次要叢集上建立複製資源群組。
完成如何在主要叢集上建立複製資源群組程序。
以 超級使用者或成為提供 solaris.cluster.modify、solaris.cluster.admin 及 solaris.cluster.read RBAC 授權的角色 存取 nodeC。
將 SUNW.HAStoragePlus 註冊為資源類型。
nodeC# clresourcetype register SUNW.HAStoragePlus |
為裝置群組建立複製資源群組。
nodeC# clresourcegroup create -n nodeC devgrp-stor-rg |
建立資源群組。
為資源群組指定節點清單。
裝置群組的名稱。
複製資源群組的名稱。
將 SUNW.HAStoragePlus 資源增加至複製資源群組。
nodeC# clresource create \ -t SUNW.HAStoragePlus \ -p GlobalDevicePaths=devgrp \ -p AffinityOn=True \ devgrp-stor |
建立資源。
指定資源類型。
指定 Sun StorageTek Availability Suite 軟體所依賴的延伸特性。
指定 SUNW.HAStoragePlus 資源必須為由 -x GlobalDevicePaths= 定義的全域裝置與叢集檔案系統執行親合性切換保護移轉。因此,當複製資源群組發生故障轉移或切換保護移轉時,將對關聯的裝置群組執行切換保護移轉。
複製資源群組的 HAStoragePlus 資源。
如需更多關於這些延伸特性的資訊,請參閱SUNW.HAStoragePlus(5) 線上手冊。
將邏輯主機名稱資源加入至複製資源群組。
nodeC# clreslogicalhostname create -g devgrp-stor-rg lhost-reprg-sec |
主要叢集上的複製資源群組的邏輯主機名稱名為 lhost-reprg-sec。
啟用資源、管理資源群組,並使資源群組上線。
nodeC# clresourcegroup online -e -M -n nodeC devgrp-stor-rg |
進入線上狀態。
啟用關聯的資源。
管理資源群組。
指定您要使資源群組上線的節點。
驗證資源群組是否處於線上狀態。
nodeC# clresourcegroup status devgrp-stor-rg |
檢查資源群組狀態欄位,以確認複製資源群組在 nodeC 上處於線上狀態。
此程序描述了如何為 NFS 建立應用程式資源群組。此程序特定於該應用程式,不適用於其他類型的應用程式。
完成如何在次要叢集上建立複製資源群組程序。
以 超級使用者或成為提供 solaris.cluster.modify、solaris.cluster.admin 及 solaris.cluster.read RBAC 授權的角色 存取 nodeA。
將 SUNW.nfs 註冊為資源類型。
nodeA# clresourcetype register SUNW.nfs |
如果尚未將 SUNW.HAStoragePlus 註冊為資源類型,請進行註冊。
nodeA# clresourcetype register SUNW.HAStoragePlus |
為裝置群組 devgrp 建立應用程式資源群組。
nodeA# clresourcegroup create \ -p Pathprefix=/global/etc \ -p Auto_start_on_new_cluster=False \ -p RG_dependencies=devgrp-stor-rg \ nfs-rg |
指定群組中的資源可以寫入管理檔案的目錄。
指定應用程式資源群組並非自動啟動。
指定應用程式資源群組所依賴的資源群組。在此範例中,應用程式資源群組依賴複製資源群組 devgrp-stor-rg。
如果將應用程式資源群組切換保護移轉至新的主要節點,將自動切換保護移轉複製資源群組。但是,如果將複製資源群組切換保護移轉至新的主要節點,則必須手動切換保護移轉應用程式資源群組。
應用程式資源群組的名稱。
將 SUNW.HAStoragePlus 資源增加至應用程式資源群組。
nodeA# clresource create -g nfs-rg \ -t SUNW.HAStoragePlus \ -p FileSystemMountPoints=/global/掛載點 \ -p AffinityOn=True \ nfs-dg-rs |
建立資源。
指定要新增資源的資源群組。
指定資源的類型為 SUNW.HAStoragePlus。
指定檔案系統的掛載點為全域掛載點。
指定應用程式資源必須為由 -p GlobalDevicePaths= 定義的全域裝置與叢集檔案系統執行相關性切換。因此,當應用程式資源群組發生故障轉移或切換保護移轉時,將對關聯的裝置群組執行切換保護移轉。
NFS 應用程式的 HAStoragePlus 資源的名稱。
如需更多關於這些延伸特性的資訊,請參閱SUNW.HAStoragePlus(5) 線上手冊。
將本機的主機名稱資源增加至應用程式資源群組。
nodeA# clreslogicalhostname create -g nfs-rg \ lhost-nfsrg-prim |
主要叢集上的應用程式資源群組的邏輯主機名稱名為 lhost-nfsrg-prim。
啟用資源、管理應用程式資源群組,並使應用程式資源群組上線。
驗證應用程式資源群組是否處於線上狀態。
nodeA# clresourcegroup status |
檢查資源群組狀態欄位,以確定應用程式資源群組在 nodeA 與 nodeB 上是否處於線上狀態。
以 超級使用者或成為提供 solaris.cluster.modify、solaris.cluster.admin 及 solaris.cluster.read RBAC 授權的角色 存取 nodeC。
將 SUNW.nfs 註冊為資源類型。
nodeC# clresourcetype register SUNW.nfs |
如果尚未將 SUNW.HAStoragePlus 註冊為資源類型,請進行註冊。
nodeC# clresourcetype register SUNW.HAStoragePlus |
為裝置群組建立應用程式資源群組。
nodeC# clresourcegroup create \ -p Pathprefix=/global/etc \ -p Auto_start_on_new_cluster=False \ -p RG_dependencies=devgrp-stor-rg \ nfs-rg |
建立資源群組。
指定資源群組的特性。
指定群組中的資源可以寫入管理檔案的目錄。
指定應用程式資源群組並非自動啟動。
指定應用程式資源群組所依賴的資源群組。在此範例中,應用程式資源群組依賴複製資源群組。
如果將應用程式資源群組切換保護移轉至新的主要節點,將自動切換保護移轉複製資源群組。但是,如果將複製資源群組切換保護移轉至新的主要節點,則必須手動切換保護移轉應用程式資源群組。
應用程式資源群組的名稱。
將 SUNW.HAStoragePlus 資源增加至應用程式資源群組。
nodeC# clresource create -g nfs-rg \ -t SUNW.HAStoragePlus \ -p FileSystemMountPoints=/global/掛載點 \ -p AffinityOn=True \ nfs-dg-rs |
建立資源。
指定要新增資源的資源群組。
指定資源的類型為 SUNW.HAStoragePlus。
指定資源的特性。
指定檔案系統的掛載點為全域掛載點。
指定應用程式資源必須為由 -x GlobalDevicePaths= 定義的全域裝置與叢集檔案系統執行親合性切換保護移轉。因此,當應用程式資源群組發生故障轉移或切換保護移轉時,將對關聯的裝置群組執行切換保護移轉。
NFS 應用程式的 HAStoragePlus 資源的名稱。
如需更多關於這些延伸特性的資訊,請參閱SUNW.HAStoragePlus(5) 線上手冊。
將本機的主機名稱資源增加至應用程式資源群組。
nodeC# clreslogicalhostname create -g nfs-rg \ lhost-nfsrg-sec |
次要叢集上的應用程式資源群組的邏輯主機名稱名為 lhost-nfsrg-sec。
將 NFS 資源增加至應用程式資源群組。
nodeC# clresource create -g nfs-rg \ -t SUNW.nfs -p Resource_dependencies=nfs-dg-rs nfs-rg |
確定應用程式資源群組未在 nodeC 上連線。
nodeC# clresource disable -n nodeC nfs-rs nodeC# clresource disable -n nodeC nfs-dg-rs nodeC# clresource disable -n nodeC lhost-nfsrg-sec nodeC# clresourcegroup online -n "" nfs-rg |
在重新開機後,此資源群組仍然處於離線狀態,這是因為 Auto_start_on_new_cluster=False。
如果全域磁碟區掛載於主要叢集上,則從次要叢集上卸載該全域磁碟區。
nodeC# umount /global/掛載點 |
如果磁碟區掛載於次要叢集上,同步化將失敗。
請至如何啟用資料複製的範例。
本小節說明如何為配置範例啟用資料複製。本小節使用 Sun StorageTek Availability Suite 軟體指令 sndradm 與 iiadm。如需更多有關這些指令的資訊,請參閱 Sun StorageTek Availability documentation。
本小節包含以下程序:
以 超級使用者或成為提供 solaris.cluster.read RBAC 授權的角色 存取 nodeA。
清除所有異動。
nodeA# lockfs -a -f |
確認邏輯主機名稱 lhost-reprg-prim 與 lhost-reprg-sec 均處於線上狀態。
nodeA# clresourcegroup status nodeC# clresourcegroup status |
檢查資源群組的狀態欄位。
啟用從主要叢集到次要叢集的遠端鏡像複製。
此步驟會啟用從主要叢集上的主磁碟區到次要叢集上的主磁碟區的複製。另外,此步驟會啟用向 vol04 上的遠端鏡像點陣圖的複製。
如果主要叢集與次要叢集未同步,請執行此指令︰
Sun StorEdge Availability Suite 軟體:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 軟體:
nodeA# /usr/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
如果主要叢集與次要叢集同步,請執行此指令︰
Sun StorEdge Availability Suite 軟體:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -E lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 軟體:
nodeA# /usr/sbin/sndradm -n -E lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
啟用自動同步化。
Sun StorEdge Availability Suite 軟體:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -a on lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 軟體:
nodeA# /usr/sbin/sndradm -n -a on lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
此步驟啟用自動同步化。如果將自動同步化的作用中狀態設定為 on,則當系統重新開機或發生故障時將重新同步化磁碟區集。
驗證叢集是否處於記錄模式下。
Sun StorEdge Availability Suite 軟體:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
Sun StorageTek Availability Suite 軟體:
nodeA# /usr/sbin/sndradm -P |
輸出應類似於以下顯示:
/dev/vx/rdsk/devgrp/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01 autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: logging |
在記錄模式下,狀態為 logging,自動同步化的使用中狀態為 off。當寫入到磁碟上的資料磁碟區時,將更新同一個磁碟上的點陣圖檔案。
啟用即時快照。
Sun StorEdge Availability Suite 軟體:
nodeA# /usr/opt/SUNWesm/sbin/iiadm -e ind \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 nodeA# /usr/opt/SUNWesm/sbin/iiadm -w \ /dev/vx/rdsk/devgrp/vol02 |
Sun StorageTek Availability Suite 軟體:
nodeA# /usr/sbin/iiadm -e ind \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 nodeA# /usr/sbin/iiadm -w \ /dev/vx/rdsk/devgrp/vol02 |
此步驟可將主要叢集上的主磁碟區複製到同一個叢集上的影像磁碟區。主磁碟區、影像磁碟區和即時點陣圖磁碟區必須位於同一個裝置群組中。在此範例中,主磁碟區為 vol01,影像磁碟區為 vol02,即時點陣圖磁碟區為 vol03。
將即時快照附加至遠端鏡像集。
Sun StorEdge Availability Suite 軟體:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -I a \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 |
Sun StorageTek Availability Suite 軟體:
nodeA# /usr/sbin/sndradm -I a \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 |
此步驟使即時快照與遠端鏡像磁碟區集關聯起來。Sun StorageTek Availability Suite 軟體可確保在執行即時快照之後,才會發生遠端鏡像複製。
請移至如何在次要叢集上啟用複製。
完成如何在主要叢集上啟用複製程序。
以超級使用者身份存取 nodeC。
清除所有異動。
nodeC# lockfs -a -f |
啟用從主要叢集到次要叢集的遠端鏡像複製。
Sun StorEdge Availability Suite 軟體:
nodeC# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 軟體:
nodeC# /usr/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
主要叢集偵測到次要叢集存在並開始同步化。請參閱 Sun StorEdge Availability Suite 的系統記錄檔 /var/opt/SUNWesm/ds.log 或 Sun StorageTek Availability Suite 的系統記錄檔 /var/adm 以取得關於叢集狀態的資訊。
啟用獨立的即時快照。
Sun StorEdge Availability Suite 軟體:
nodeC# /usr/opt/SUNWesm/sbin/iiadm -e ind \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 nodeC# /usr/opt/SUNWesm/sbin/iiadm -w \ /dev/vx/rdsk/devgrp/vol02 |
Sun StorageTek Availability Suite 軟體:
nodeC# /usr/sbin/iiadm -e ind \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 nodeC# /usr/sbin/iiadm -w \ /dev/vx/rdsk/devgrp/vol02 |
將即時快照附加至遠端鏡像集。
Sun StorEdge Availability Suite 軟體:
nodeC# /usr/opt/SUNWesm/sbin/sndradm -I a \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 |
Sun StorageTek Availability Suite 軟體:
nodeC# /usr/sbin/sndradm -I a \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol02 \ /dev/vx/rdsk/devgrp/vol03 |
請移至如何執行資料複製的範例。
本小節說明配置範例如何執行資料複製。本小節使用 Sun StorageTek Availability Suite 軟體指令 sndradm 與 iiadm。如需更多關於這些指令的資訊,請參閱 Sun StorageTek Availability Suite 文件。
本小節包含以下程序:
在此程序中,主要磁碟的主磁碟區被複製到次要磁碟的主磁碟區。主磁碟區為 vol01,遠端鏡像點陣圖磁碟區為 vol04。
以超級使用者身份存取 nodeA。
驗證叢集是否處於記錄模式下。
Sun StorEdge Availability Suite 軟體:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
Sun StorageTek Availability Suite 軟體:
nodeA# /usr/sbin/sndradm -P |
輸出應類似於以下顯示:
/dev/vx/rdsk/devgrp/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01 autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: logging |
在記錄模式下,狀態為 logging,自動同步化的使用中狀態為 off。當寫入到磁碟上的資料磁碟區時,將更新同一個磁碟上的點陣圖檔案。
清除所有異動。
nodeA# lockfs -a -f |
將 nodeA 的主磁碟區複製到 nodeC 的主磁碟區。
Sun StorEdge Availability Suite 軟體:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -m lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 軟體:
nodeA# /usr/sbin/sndradm -n -m lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
等待直至複製完成並且磁碟區已同步化。
Sun StorEdge Availability Suite 軟體:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -w lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 軟體:
nodeA# /usr/sbin/sndradm -n -w lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
確認叢集處於複製模式下。
Sun StorEdge Availability Suite 軟體:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
Sun StorageTek Availability Suite 軟體:
nodeA# /usr/sbin/sndradm -P |
輸出應類似於以下顯示:
/dev/vx/rdsk/devgrp/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01 autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: replicating |
在複製模式下,狀態為 replicating,自動同步化的使用中狀態為 on。寫入主要磁碟區時,Sun StorageTek Availability Suite 軟體會更新次要磁碟區。
請移至如何執行即時快照。
在此程序中,即時快照用於同步化主要叢集的影像磁碟區與主要叢集的主磁碟區。主磁碟區為 vol01,點陣圖磁碟區為 vol04,影像磁碟區為 vol02。
完成如何執行遠端鏡像複製程序。
以 超級使用者或成為提供 solaris.cluster.modify 和 solaris.cluster.admin RBAC 授權的角色 存取 nodeA。
停用 nodeA 上正在執行的資源。
nodeA# clresource disable -n nodeA nfs-rs |
將主要叢集變更為記錄模式。
Sun StorEdge Availability Suite 軟體:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 軟體:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
當寫入到磁碟上的資料磁碟區時,將更新同一個磁碟上的點陣圖檔案。未進行複製。
使主要叢集的陰影磁碟區與主要叢集的主磁碟區同步。
Sun StorEdge Availability Suite 軟體:
nodeA# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02 nodeA# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02 |
Sun StorageTek Availability Suite 軟體:
nodeA# /usr/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02 nodeA# /usr/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02 |
使次要叢集的陰影磁碟區與次要叢集的主磁碟區同步。
Sun StorEdge Availability Suite 軟體:
nodeC# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02 nodeC# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02 |
Sun StorageTek Availability Suite 軟體:
nodeC# /usr/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02 nodeC# /usr/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02 |
在 nodeA 上重新啟動應用程式。
nodeA# clresource enable -n nodeA nfs-rs |
重新同步化次要磁碟區與主要磁碟區。
Sun StorEdge Availability Suite 軟體:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 軟體:
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
請至如何驗證已正確配置複製。
完成如何執行即時快照程序。
以 超級使用者或成為提供 solaris.cluster.admin RBAC 授權的角色 存取 nodeA 與 nodeC。
驗證主要叢集處於複製模式下,並且開啟了自動同步化功能。
Sun StorEdge Availability Suite 軟體:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
Sun StorageTek Availability Suite 軟體:
nodeA# /usr/sbin/sndradm -P |
輸出應類似於以下顯示:
/dev/vx/rdsk/devgrp/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01 autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devgrp, state: replicating |
在複製模式下,狀態為 replicating,自動同步化的使用中狀態為 on。寫入主要磁碟區時,Sun StorageTek Availability Suite 軟體會更新次要磁碟區。
如果主要叢集未處於複製模式,請將其置於複製模式。
Sun StorEdge Availability Suite 軟體:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 軟體:
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
在用戶端機器上建立目錄。
將該目錄掛載到主要叢集上的應用程式中,然後顯示掛載的目錄。
將該目錄掛載到次要叢集上的應用程式中,然後顯示掛載的目錄。
卸載主要叢集上應用程式的目錄。
client-machine# umount /dir |
使應用程式資源群組在主要叢集上離線。
nodeA# clresource disable -n nodeA nfs-rs nodeA# clresource disable -n nodeA nfs-dg-rs nodeA# clresource disable -n nodeA lhost-nfsrg-prim nodeA# clresourcegroup online -n "" nfs-rg |
將主要叢集變更為記錄模式。
Sun StorEdge Availability Suite 軟體:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 軟體:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
當寫入到磁碟上的資料磁碟區時,將更新同一個磁碟上的點陣圖檔案。未進行複製。
請確定 PathPrefix 目錄可用。
nodeC# mount | grep /global/etc |
使應用程式資源群組在次要叢集上連線。
nodeC# clresourcegroup online -n nodeC nfs-rg |
以超級使用者身份存取用戶端機器。
您會看到類似於以下顯示的提示:
client-machine# |
將已建立於步驟 4 的目錄掛載至次要叢集上的應用程式。
用戶端機器# mount -o rw lhost-nfsrg-sec:/global/掛載點 /目錄 |
顯示掛載的目錄。
client-machine# ls /dir |
將主要叢集上的應用程式傳回到掛載的目錄。
使應用程式資源群組在次要叢集上離線。
nodeC# clresource disable -n nodeC nfs-rs nodeC# clresource disable -n nodeC nfs-dg-rs nodeC# clresource disable -n nodeC lhost-nfsrg-sec nodeC# clresourcegroup online -n "" nfs-rg |
請確定已從次要叢集上卸載全域磁碟區。
nodeC# umount /global/掛載點 |
使應用程式資源群組在主要叢集上連線。
nodeA# clresourcegroup online -n nodeA nfs-rg |
將主要叢集變更為複製模式。
Sun StorEdge Availability Suite 軟體:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 軟體:
nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
寫入主要磁碟區時,Sun StorageTek Availability Suite 軟體會更新次要磁碟區。
本小節說明如何引發切換保護移轉,以及如何將應用程式傳輸至次要叢集。在發生切換保護移轉或容錯移轉之後,請更新 DNS 項目。如需附加資訊,請參閱管理故障轉移或切換保護移轉的準則。
本小節包含以下程序:
以 超級使用者或成為提供 solaris.cluster.admin RBAC 授權的角色 存取 nodeA 與 nodeC。
將主要叢集變更為記錄模式。
Sun StorEdge Availability Suite 軟體:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
Sun StorageTek Availability Suite 軟體:
nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devgrp/vol01 \ /dev/vx/rdsk/devgrp/vol04 ip sync |
寫入磁碟上的資料磁碟區時,會更新同一個裝置群組上的點陣圖磁碟區。未進行複製。
確認主要叢集與次要叢集都處於記錄模式下,並且關閉了自動同步化功能。
在 nodeA 上,確認模式與設定:
Sun StorEdge Availability Suite 軟體:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
Sun StorageTek Availability Suite 軟體:
nodeA# /usr/sbin/sndradm -P |
輸出應類似於以下顯示:
/dev/vx/rdsk/devgrp/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01 autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag: devgrp, state: logging |
在 nodeC 上,確認模式與設定:
Sun StorEdge Availability Suite 軟體:
nodeC# /usr/opt/SUNWesm/sbin/sndradm -P |
Sun StorageTek Availability Suite 軟體:
nodeC# /usr/sbin/sndradm -P |
輸出應類似於以下顯示:
/dev/vx/rdsk/devgrp/vol01 <- lhost-reprg-prim:/dev/vx/rdsk/devgrp/vol01 autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag: devgrp, state: logging |
對於 nodeA 與 nodeC,狀態應該為 logging,自動同步化的作用中狀態應該為 off。
確認次要叢集已準備好接管主要叢集。
nodeC# fsck -y /dev/vx/rdsk/devgrp/vol01 |
切換保護移轉至次要叢集。
nodeC# clresourcegroup switch -n nodeC nfs-rg |
請移至如何更新 DNS 項目。
如需有關 DNS 如何將用戶端對映至叢集的說明,請參閱圖 4–8。
完成如何引發切換保護移轉程序。
啟動 nsupdate 指令。
如需資訊,請參閱 nsupdate(1M) 線上手冊。
移除兩個叢集目前在應用程式資源群組的邏輯主機名稱與叢集 IP 位址之間的 DNS 對應。
> update delete lhost-nfsrg-prim A > update delete lhost-nfsrg-sec A > update delete ip 位址 1rev.in-addr.arpa ttl PTR lhost-nfsrg-prim > update delete ip 位址 2rev.in-addr.arpa ttl PTR lhost-nfsrg-sec |
主要叢集的 IP 位址 (依反向順序)。
次要叢集的 IP 位址 (依反向順序)。
存在時間 (以秒為單位)。典型值為 3600。
為兩個叢集建立應用程式資源群組的邏輯主機名稱與叢集 IP 位址之間的新 DNS 對應。
將主要邏輯主機名稱對應至次要叢集的 IP 位址,並將次要邏輯主機名稱對應至主要叢集的 IP 位址。
> update add lhost-nfsrg-prim ttl A ip 位址 2fwd > update add lhost-nfsrg-sec ttl A ip 位址 1fwd > update add ip 位址 2rev.in-addr.arpa ttl PTR lhost-nfsrg-prim > update add ip 位址 1rev.in-addr.arpa ttl PTR lhost-nfsrg-sec |
次要叢集的 IP 位址 (依正向順序)。
主要叢集的 IP 位址 (依正向順序)。