Sun Cluster 系統管理指南(適用於 Solaris 作業系統)

第 4 章 資料複製方法

本章說明 Sun Cluster 的可用資料複製方法。您必須先瞭解以主機為基礎與以儲存為基礎的資料複製,才能選取最適合您的叢集的複製方法組合。

此 Sun Cluster 發行版本支援以下 Sun 可用性套裝軟體發行版本:

除非有另外特別註明,在本手冊中,Sun StorageTek Availability Suite 軟體的參照也適用於 Sun StorEdge Availability Suite 軟體。

本章包含以下各節:

瞭解資料複製

資料複製 是將資料從主要儲存裝置複製到備份或次要裝置。如果主要裝置發生故障,您的資料則可從次要裝置取得。這樣資料複製就可協助為您的叢集確保高可用性並提供毀損容錯解決方案。

Sun Cluster 支援以下資料複製方法:

Sun StorageTek Availability Suite 軟體為實際位置分散的叢集間以主機為基礎的資料複製提供一套機制。範例:使用 Sun StorEdge Availability Suite 或 Sun StorageTek Availability Suite 軟體配置以主機為基礎的資料複製在本章結尾提供一個此類叢集配置的完整範例。

使用以主機為基礎的資料複製

本節說明在兩個空間的區域叢集中以主機為基礎的資料複製。一個具有以主機為基礎的資料複製之兩個空間配置定義如下:


備註 –

本節中的範例以圖解說明一般區域叢集配置,並非要指出要求的或建議的配置。為求簡單,圖表與解說僅著重在瞭解區域叢集的獨特功能。例如,圖中未顯示公用網路乙太網路連線。


在此配置中,如果法定磁碟遺失,系統則無法自動回復。若要回復,則需 Sun 服務供應商的介入。

圖 4–1 具有以主機為基礎的資料複製的兩個空間區域叢集 (無多重路徑)

圖 4–1 類似標準的非區域配置。最顯著的差異在於區域叢集中已增加「光纖通道」 切換器,可從多重模式光纖切換成單一模式光纖。

使用以儲存為基礎的資料複製

以儲存為基礎的資料複製是使用安裝於儲存裝置上的軟體來管理複製。此類軟體專門針對您特定的儲存裝置。在配置以儲存為基礎的資料複製時,請參照您的儲存裝置所隨附的文件。

視您使用的軟體而定,您可以藉由以儲存為基礎的資料複製來使用自動或手動容錯移轉。Sun Cluster 可使用 Hitachi TrueCopy 軟體同時支援副本的手動與自動容錯移轉。

本節說明區域叢集中,使用以儲存為基礎的資料複製。圖 4–2 顯示兩個空間配置的範例,資料已於該處在兩個儲存陣列之間複製。在此配置中,主要儲存陣列包含在第一個空間,它在此處提供資料給兩個空間中的節點。主要儲存陣列也提供具有複製資料的次要儲存陣列。

在一般叢集作業期間,叢集會看不見次要儲存陣列。不過,如果主要儲存陣列變得無法使用,可以透過 Sun 服務供應商將次要儲存陣列手動配置到叢集中。


備註 –

圖 4–2 所示,法定裝置位於未複製的磁碟區上。已複製的磁碟區不能用來做為法定裝置。


圖 4–2 具有以儲存為基礎的資料複製之兩個空間配置

以儲存為基礎的資料複製可以在 Sun Cluster 環境中同步或非同步執行,視使用的應用程式類型而定。

使用以儲存為基礎的資料複製時的需求與限制

若要確保資料完整性,請使用多重路徑與適當的 RAID 套裝軟體。下列清單包含執行區域叢集配置 (使用以儲存裝置為基礎的資料複製) 時的一些注意事項。

使用以儲存為基礎的複製之自動容錯移轉的需求與限制

以下限制適用於搭配自動容錯移轉使用以儲存為基礎的資料複製。

使用以儲存為基礎的資料複製時,關於手動回復的考量

與所有區域叢集一樣,使用以儲存為基礎的資料複製的那些叢集,一般來說,不需要在它們遇到單一故障時介入。不過,如果您使用的是手動容錯移轉,而且您失去了存放您主要儲存裝置的空間 (如圖 4–2 所示),將會在雙節點叢集中發生問題。剩下的節點不能保留法定裝置,而且不能啟動為叢集成員。在此情況下,您的叢集需要以下手動介入:

  1. 您的 Sun 服務供應商必須重新配置要啟動做為叢集成員的剩餘節點。

  2. 您或您的 Sun 服務供應商必須將您的次要儲存裝置的未複製磁碟區配置為法定裝置。

  3. 您或您的 Sun 服務供應商必須將要使用次要儲存裝置的剩餘節點配置為主要儲存裝置。此重新配置可能會包含重建磁碟區管理程式磁碟區、復原資料或變更應用程式與儲存磁碟區的關聯。

使用 TrueCopy 進行以儲存為基礎的資料複製時的最佳作法

在設定將 Hitachi TrueCopy 軟體用於以儲存為基礎的資料複製之裝置群組時,觀察以下實作:

範例:使用 Sun StorEdge Availability Suite 或 Sun StorageTek Availability Suite 軟體配置以主機為基礎的資料複製

本節提供在叢集間使用 Sun StorageTek Availability Suite 3.1、3.2 軟體或 Sun StorageTek Availability Suite 4.0 軟體來配置以主機為基礎的資料複製之完整範例。此範例圖解說明適用於 NFS 應用程式的完整叢集配置,提供了有關個別作業能如何執行的詳細資訊。所有作業都應在全域區域中執行。此範例不包括其他應用程式或其他叢集配置所需的所有步驟。

如果您是使用以角色為基礎的存取控制 (RBAC) 而不是超級使用者來存取叢集節點,請確定您可成為為所有 Sun Cluster 指令提供授權之 RBAC 角色。如果使用者不是超級使用者,這一連串的資料複製程序需要以下 Sun Cluster RBAC 授權。

請參閱第 2 章, Sun Cluster 與 RBAC以取得更多有關使用 RBAC 角色的資訊。關於每個 Sun Cluster 子指令需要的 RBAC 授權,請參閱 Sun Cluster 線上手冊。

瞭解叢集中的 Sun StorageTek Availability Suite 軟體

本小節介紹災難偏差,並說明 Sun StorageTek Availability Suite 軟體所使用的資料複製方法。

災難偏差是指當主要叢集發生故障時,系統在替代叢集上復原應用程式的能力。災難偏差以資料複製故障轉移為基礎。容錯移轉是指自動將資源群組或裝置群組從主要叢集遷移至次要叢集。如果主要叢集發生故障,便立即可以在次要叢集上使用應用程式與資料。

Sun StorageTek Availability Suite 軟體所使用的資料複製方法

本小節說明 Sun StorageTek Availability Suite 軟體所使用的遠端鏡像複製法和即時快照法。此軟體使用 sndradm(1RPC) 與 iiadm(1II) 指令複製資料。

遠端鏡像複製

圖 4–3 顯示遠端鏡像複製。透過 TCP/IP 連線,將主要磁碟主磁碟區的資料複製到次要磁碟的主磁碟區。遠端鏡像點陣圖可追蹤主要磁碟上的主磁碟區與次要磁碟上的主磁碟區之間的差異。

圖 4–3 遠端鏡像複製

遠端鏡像複製既可以即時同步執行,也可以非同步執行。可以個別地配置每個叢集內的每個磁碟區集,以進行同步複製或非同步複製。

即時快照

圖 4–4 顯示 即時快照。每個磁碟主磁碟區的資料會複製到同一個磁碟的陰影磁碟區中。即時點陣圖追蹤主磁碟區與陰影磁碟區之間的差異。將資料複製到陰影磁碟區時,會重設即時點陣圖。

圖 4–4 即時快照

配置範例中的複製

圖 4–5 圖解說明遠端鏡像複製與即時快照如何用於此配置範例中。

圖 4–5 配置範例中的複製

配置叢集之間以主機為基礎的資料複製準則

本小節提供在叢集間配置資料複製的準則。本節還包含關於複製資源群組與應用程式資源群組的配置提示。在您為叢集配置資料複製時,請使用這些準則。

本小節論述以下主題︰

配置複製資源群組

複製資源群組將 Sun StorageTek Availability Suite 軟體控制下的裝置群組與邏輯主機名稱資源搭配在一起。複製資源群組必須具備下列特性︰

配置應用程式資源群組

若要具有高度可用性,則必須在應用程式資源群組中,將應用程式作為資源進行管理。可以為故障轉移應用程式或可延展應用程式配置應用程式資源群組。

在主要叢集上配置的應用程式資源與應用程式資源群組,也必須在次要叢集上進行配置。並且,必須將應用程式資源存取的資料複製到次要叢集。

本節提供了下列應用程式資源群組的配置準則︰

配置故障轉移應用程式的資源群組

在防故障備用應用程式中,應用程式每次在一個節點上執行。如果該節點發生故障,應用程式將故障轉移至同一個叢集內的其他節點。故障轉移應用程式的資源群組必須具備下列特性︰

圖 4–6 圖說明了在容錯移轉應用程式中應用程式資源群組與複製資源群組的配置。

圖 4–6 故障轉移應用程式中資源群組的配置

配置可延展應用程式的資源群組

在可延展應用程式中,應用程式在數個節點上執行,以建立單一邏輯服務。如果正在執行可延展式應用程式的節點發生故障,將不會發生故障轉移。應用程式會繼續在其他節點上執行。

如果將可延展式應用程式作為應用程式資源群組中的資源來管理,便無須將應用程式資源群組與裝置群組搭配在一起。因此,無須為應用程式資源群組建立 HAStoragePlus 資源。

可延展應用程式的資源群組必須具備下列特性︰

圖 4–7 說明了可延展式應用程式中資源群組的配置。

圖 4–7 可延展式應用程式中資源群組的配置

管理故障轉移或切換保護移轉的準則

如果主要叢集發生故障,則必須儘快將應用程式切換保護移轉至次要叢集。若要啟用次要叢集來接管,必須更新 DNS。

DNS 將用戶端與應用程式的邏輯主機名稱相關聯。在發生故障轉移或切換保護移轉之後,必須移除主要叢集的 DNS 對應,並且必須建立次要叢集的 DNS 對應。圖 4–8 說明 DNS 如何將用戶端對映至叢集。

圖 4–8 用戶端與叢集的 DNS 對映

若要更新 DNS,請使用 nsupdate 指令。如需資訊,請參閱 nsupdate(1M) 線上手冊。如需如何管理容錯移轉或切換保護移轉的範例,請參閱管理容錯移轉或切換保護移轉之範例

修復後,可讓主要叢集返回線上狀態。若要切換回原始的主要叢集,請執行以下作業:

  1. 使主要叢集與次要叢集同步,以確保主要磁碟區是最新的。

  2. 更新 DNS,以便用戶端可以存取主要叢集上的應用程式。

作業圖:資料複製配置範例

表 4–1 列出如何使用 Sun StorageTek Availability Suite 軟體為 NFS 應用程式配置資料複製之範例中的作業。

表 4–1 作業圖:資料複製配置範例

作業 

操作說明 

1. 連接與安裝叢集。 

連接與安裝叢集

2. 主要叢集與次要叢集上配置裝置群組、NFS 應用程式的檔案系統和資源群組。 

如何配置裝置群組與資源群組的範例

3. 在主要叢集與次要叢集上啟用資料複製。 

如何在主要叢集上啟用複製

如何在次要叢集上啟用複製

4. 執行資料複製。 

如何執行遠端鏡像複製

如何執行即時快照

5. 驗證資料複製配置。 

如何驗證已正確配置複製

連接與安裝叢集

圖 4–9 說明配置範例使用的叢集配置。配置範例中的次要叢集包含一個節點,但可以使用其他叢集配置。

圖 4–9 叢集配置範例

表 4–2 摘要出配置範例所需要的硬體和軟體。必須先將 Solaris 作業系統、Sun Cluster 軟體,以及磁碟區管理程式軟體安裝在叢集節點上,然後才可安裝 Sun StorageTek Availability Suite 軟體與修補程式。

表 4–2 需要的硬體與軟體

硬體或軟體 

需求 

節點硬體 

在所有使用 Solaris 作業系統的伺服器上,均支援 Sun StorageTek Availability Suite 軟體。 

如需關於應使用何種硬體的資訊,請參閱「Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS」

磁碟空間 

約 15 MB。 

Solaris 作業系統 

Sun Cluster 軟體支援的 Solaris 作業系統發行版本。 

所有節點均必須使用相同版本的 Solaris 作業系統。 

如需關於安裝的資訊,請參閱「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」

Sun Cluster 軟體 

Sun Cluster 3.2 軟體。 

如需關於安裝的資訊,請參閱「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」

磁碟區管理程式軟體 

Solstice DiskSuite 或 Solaris Volume Manager 軟體或 VERITAS Volume Manager (VxVM) 軟體。 

所有節點必須使用相同版本的磁碟區管理程式軟體。 

安裝資訊位於「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」中的第 4 章「配置 Solaris Volume Manager 軟體」「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」中的第 5 章「安裝與配置 VERITAS Volume Manager」

Sun StorageTek Availability Suite 軟體 

如需有關如何安裝此軟體的資訊,請參閱適用於您的 Sun StorageTek Availability Suite 或 Sun StorageTek Availability Suite 軟體發行版本之安裝手冊: 

  • Sun StorEdge Availability Suite 3.1 - Sun StorEdge Availability 文件

  • Sun StorEdge Availability Suite 3.2 - Sun StorEdge Availability 文件

  • Sun StorageTek Availability Suite 4.0 – Sun StorageTek Availability 文件

Sun StorageTek Availability Suite 軟體修補程式 

如需有關最新的修補程式之資訊,請參閱 http://www.sunsolve.com

如何配置裝置群組與資源群組的範例

本小節說明如何為 NFS 應用程式配置裝置群組與資源群組。如需附加資訊,請參閱配置複製資源群組配置應用程式資源群組

本小節包含以下程序:

下表列出了為配置範例建立的群組與資源的名稱。

表 4–3 配置範例中群組與資源的摘要

群組或資源 

名稱 

說明 

裝置群組 

devgrp

裝置群組 

複製資源群組與資源 

devgrp-stor-rg

複製資源群組 

lhost-reprg-primlhost-reprg-sec

主要叢集與次要叢集上的複製資源群組之邏輯主機名稱 

devgrp-stor

複製資源群組的 HAStoragePlus 資源 

應用程式資源群組與資源 

nfs-rg

應用程式資源群組 

lhost-nfsrg-primlhost-nfsrg-sec

主要叢集與次要叢集上的應用程式資源群組之邏輯主機名稱 

nfs-dg-rs

應用程式的 HAStoragePlus 資源 

nfs-rs

NFS 資源 

devgrp-stor-rg 之外,群組與資源的名稱是可以依需要進行變更的範例名稱。複製資源群組的名稱格式必須為 devicegroupname-stor-rg

此配置範例使用 VxVM 軟體。如需關於 Solstice DiskSuite 或 Solaris Volume Manager 軟體的資訊,請參閱「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」中的「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」中的第 4 章「配置 Solaris Volume Manager 軟體」

下圖說明在裝置群組中建立的磁碟區。

圖 4–10 裝置群組的磁碟區


備註 –

本程序中定義的磁碟區不得包含磁碟標籤私有區域,例如磁柱 0。VxVM 軟體會自動管理此限制。


Procedure如何在主要叢集上配置裝置群組

開始之前

請確定您已完成以下作業:

  1. 以 超級使用者或成為提供 solaris.cluster.modify RBAC 授權的角色 存取 nodeA

    節點 nodeA 是主要叢集中的第一個節點。如需有關哪個節點為 nodeA 的提示,請參閱圖 4–9

  2. 在包含磁碟區 1 (vol01) 至磁碟區 4 (vol04) 的 nodeA 上建立磁碟群組。

    如需藉由使用 VxVM 軟體配置磁碟群組的資訊,請參閱「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」中的 「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」中的第 5 章「安裝與配置 VERITAS Volume Manager」

  3. 配置磁碟群組以建立裝置群組。


    nodeA# cldevicegroup create -t vxvm -n nodeA nodeB devgrp
    

    裝置群組稱為 devgrp

  4. 為磁碟裝置建立檔案系統。


    nodeA# newfs /dev/vx/rdsk/devgrp/vol01 < /dev/null
    nodeA# newfs /dev/vx/rdsk/devgrp/vol02 < /dev/null
    

    vol03vol04 不需要檔案系統,它們被改用做原始磁碟區。

接下來的步驟

請至如何在次要叢集上配置裝置群組

Procedure如何在次要叢集上配置裝置群組

開始之前

完成如何在主要叢集上配置裝置群組程序。

  1. 以 超級使用者或成為提供 solaris.cluster.modify RBAC 授權的角色 存取 nodeC

  2. nodeC 上建立一個包含四個磁碟區的磁碟群組:磁碟區 1 (vol01) 至磁碟區 4 (vol04)。

  3. 配置磁碟群組以建立裝置群組。


    nodeC# cldevicegroup create -t vxvm -n nodeC devgrp
    

    裝置群組名為 devgrp

  4. 為磁碟裝置建立檔案系統。


    nodeC# newfs /dev/vx/rdsk/devgrp/vol01 < /dev/null
    nodeC# newfs /dev/vx/rdsk/devgrp/vol02 < /dev/null
    

    vol03vol04 不需要檔案系統,它們被改用做原始磁碟區。

接下來的步驟

請移至如何為 NFS 應用程式配置主要叢集上的檔案系統

Procedure如何為 NFS 應用程式配置主要叢集上的檔案系統

開始之前

完成如何在次要叢集上配置裝置群組程序。

  1. nodeAnodeB 上,成為 超級使用者或成為提供 solaris.cluster.admin RBAC 授權的角色。

  2. nodeAnodeB 上,為 NFS 檔案系統建立掛載點目錄。

    例如:


    nodeA# mkdir /global/掛載點
    
  3. nodeAnodeB 上,配置要在掛載點上自動掛載的主磁碟區。

    nodeAnodeB 上的 /etc/vfstab 檔中,加入或替代下列文字。文字必須在單一行上。


    /dev/vx/dsk/devgrp/vol01 /dev/vx/rdsk/devgrp/vol01 \
    /global/掛載點 ufs 3 no global,logging

    如需有關裝置群組中所使用的磁碟區名稱與磁碟區編號的提示,請參閱圖 4–10

  4. nodeA 上,為 Sun Cluster HA for NFS 資料服務使用的檔案系統資訊建立磁碟區。


    nodeA# vxassist -g devgrp make vol05 120m 磁碟 1
    

    磁碟區 5 (vol05) 包含 Sun Cluster HA for NFS 資料服務所使用的檔案系統資訊。

  5. nodeA 上,使裝置群組與 Sun Cluster 軟體重新同步。


    nodeA# cldevicegroup sync devgrp
    
  6. nodeA 上,為 vol05 建立檔案系統。


    nodeA# newfs /dev/vx/rdsk/devgrp/vol05
    
  7. nodeAnodeB 上,為 vol05 建立掛載點。

    以下範例建立掛載點 /global/etc


    nodeA# mkdir /global/etc
    
  8. nodeAnodeB 上,將 vol05 配置為自動掛載在掛載點上。

    nodeAnodeB 上的 /etc/vfstab 檔中,加入或替代下列文字。文字必須在單一行上。


    /dev/vx/dsk/devgrp/vol05 /dev/vx/rdsk/devgrp/vol05 \
    /global/etc ufs 3 yes global,logging
  9. vol05 掛載在 nodeA 上。


    nodeA# mount /global/etc
    
  10. 讓遠端系統可存取 vol05

    1. nodeA 上建立稱為 /global/etc/SUNW.nfs 的目錄。


      nodeA# mkdir -p /global/etc/SUNW.nfs
      
    2. nodeA 上建立檔案 /global/etc/SUNW.nfs/dfstab.nfs-rs


      nodeA# touch /global/etc/SUNW.nfs/dfstab.nfs-rs
      
    3. 將下行加入 nodeA 上的 /global/etc/SUNW.nfs/dfstab.nfs-rs 檔案。


      share -F nfs -o rw -d "HA NFS" /global/mountpoint
      
接下來的步驟

請移至如何為 NFS 應用程式配置次要叢集上的檔案系統。

Procedure如何為 NFS 應用程式配置次要叢集上的檔案系統。

開始之前

完成如何為 NFS 應用程式配置主要叢集上的檔案系統程序。

  1. nodeC,成為 超級使用者或成為提供 solaris.cluster.admin RBAC 授權的角色。

  2. nodeC 上,為 NFS 檔案系統建立掛載點目錄。

    例如:


    nodeC# mkdir /global/掛載點
    
  3. nodeC 上,配置要自動掛載在掛載點上的主磁碟區。

    nodeC 上的 /etc/vfstab 檔案中,增加或替代以下文字。文字必須在單一行上。


    /dev/vx/dsk/devgrp/vol01 /dev/vx/rdsk/devgrp/vol01 \
    /global/掛載點 ufs 3 no global,logging
  4. nodeC 上,為 Sun Cluster HA for NFS 資料服務所使用的檔案系統資訊建立磁碟區。


    nodeC# vxassist -g devgrp make vol05 120m 磁碟 1
    

    磁碟區 5 (vol05) 包含 Sun Cluster HA for NFS 資料服務所使用的檔案系統資訊。

  5. nodeC 上,重新讓裝置群組與 Sun Cluster 軟體同步化。


    nodeC# cldevicegroup sync devgrp
    
  6. nodeC 上,為 vol05 建立檔案系統。


    nodeC# newfs /dev/vx/rdsk/devgrp/vol05
    
  7. nodeC 上,為 vol05 建立掛載點。

    以下範例建立掛載點 /global/etc


    nodeC# mkdir /global/etc
    
  8. nodeC 上,將 vol05 配置為在掛載點上進行自動掛載。

    nodeC 上的 /etc/vfstab 檔案中,增加或替代以下文字。文字必須在單一行上。


    /dev/vx/dsk/devgrp/vol05 /dev/vx/rdsk/devgrp/vol05 \
    /global/etc ufs 3 yes global,logging
  9. vol05 掛載在 nodeC 上。


    nodeC# mount /global/etc
    
  10. 讓遠端系統可存取 vol05

    1. nodeC 上,建立名為 /global/etc/SUNW.nfs 的目錄。


      nodeC# mkdir -p /global/etc/SUNW.nfs
      
    2. nodeC 上,建立檔案 /global/etc/SUNW.nfs/dfstab.nfs-rs


      nodeC# touch /global/etc/SUNW.nfs/dfstab.nfs-rs
      
    3. 將下行加入 nodeC 上的 /global/etc/SUNW.nfs/dfstab.nfs-rs 檔案。


      share -F nfs -o rw -d "HA NFS" /global/mountpoint
      
接下來的步驟

請移至如何在主要叢集上建立複製資源群組

Procedure如何在主要叢集上建立複製資源群組

開始之前

完成如何為 NFS 應用程式配置次要叢集上的檔案系統。程序。

  1. 以 超級使用者或成為提供 solaris.cluster.modifysolaris.cluster.adminsolaris.cluster.read RBAC 授權的角色 存取 nodeA

  2. 註冊 SUNW.HAStoragePlus 資源類型。


    nodeA# clresourcetype register SUNW.HAStoragePlus
    
  3. 為裝置群組建立複製資源群組。


    nodeA# clresourcegroup create -n nodeA,nodeB devgrp-stor-rg
    
    -n nodeA,nodeB

    指定叢集節點 nodeA nodeB 可以控制複製資源群組。

    devgrp-stor-rg

    複製資源群組的名稱。在此名稱中,devgrp 指定裝置群組的名稱。

  4. SUNW.HAStoragePlus 資源增加至複製資源群組。


    nodeA# clresource create -g devgrp-stor-rg -t SUNW.HAStoragePlus \
    -p GlobalDevicePaths=devgrp \
    -p AffinityOn=True \
    devgrp-stor
    
    -g

    指定要新增資源的資源群組。

    -p GlobalDevicePaths=

    指定 Sun StorageTek Availability Suite 軟體所依賴的延伸特性。

    -p AffinityOn=True

    指定 SUNW.HAStoragePlus 資源必須為由 -x GlobalDevicePaths= 定義的全域裝置與叢集檔案系統執行親合性切換保護移轉。因此,當複製資源群組發生故障轉移或切換保護移轉時,將對關聯的裝置群組執行切換保護移轉。

    如需更多關於這些延伸特性的資訊,請參閱SUNW.HAStoragePlus(5) 線上手冊。

  5. 將邏輯主機名稱資源加入至複製資源群組。


    nodeA# clreslogicalhostname create -g devgrp-stor-rg lhost-reprg-prim
    

    主要叢集上的複製資源群組的邏輯主機名稱名為 lhost-reprg-prim

  6. 啟用資源、管理資源群組,並使資源群組上線。


    nodeA# clresourcegroup online -e -M -n nodeA devgrp-stor-rg
    
    -e

    啟用關聯的資源。

    -M

    管理資源群組。

    -n

    指定您要使資源群組上線的節點。

  7. 驗證資源群組是否處於線上狀態。


    nodeA# clresourcegroup status devgrp-stor-rg
    

    檢查資源群組狀態欄位,以確認複製資源群組在 nodeA 上處於線上狀態。

接下來的步驟

請移至如何在次要叢集上建立複製資源群組

Procedure如何在次要叢集上建立複製資源群組

開始之前

完成如何在主要叢集上建立複製資源群組程序。

  1. 以 超級使用者或成為提供 solaris.cluster.modifysolaris.cluster.adminsolaris.cluster.read RBAC 授權的角色 存取 nodeC

  2. SUNW.HAStoragePlus 註冊為資源類型。


    nodeC# clresourcetype register SUNW.HAStoragePlus
    
  3. 為裝置群組建立複製資源群組。


    nodeC# clresourcegroup create -n nodeC devgrp-stor-rg
    
    create

    建立資源群組。

    -n

    為資源群組指定節點清單。

    devgrp

    裝置群組的名稱。

    devgrp-stor-rg

    複製資源群組的名稱。

  4. SUNW.HAStoragePlus 資源增加至複製資源群組。


    nodeC# clresource create \
    -t SUNW.HAStoragePlus \
    -p GlobalDevicePaths=devgrp \
    -p AffinityOn=True \
    devgrp-stor
    
    create

    建立資源。

    -t

    指定資源類型。

    -p GlobalDevicePaths=

    指定 Sun StorageTek Availability Suite 軟體所依賴的延伸特性。

    -p AffinityOn=True

    指定 SUNW.HAStoragePlus 資源必須為由 -x GlobalDevicePaths= 定義的全域裝置與叢集檔案系統執行親合性切換保護移轉。因此,當複製資源群組發生故障轉移或切換保護移轉時,將對關聯的裝置群組執行切換保護移轉。

    devgrp-stor

    複製資源群組的 HAStoragePlus 資源。

    如需更多關於這些延伸特性的資訊,請參閱SUNW.HAStoragePlus(5) 線上手冊。

  5. 將邏輯主機名稱資源加入至複製資源群組。


    nodeC# clreslogicalhostname create -g devgrp-stor-rg lhost-reprg-sec
    

    主要叢集上的複製資源群組的邏輯主機名稱名為 lhost-reprg-sec

  6. 啟用資源、管理資源群組,並使資源群組上線。


    nodeC# clresourcegroup online -e -M -n nodeC devgrp-stor-rg
    
    online

    進入線上狀態。

    -e

    啟用關聯的資源。

    -M

    管理資源群組。

    -n

    指定您要使資源群組上線的節點。

  7. 驗證資源群組是否處於線上狀態。


    nodeC# clresourcegroup status devgrp-stor-rg
    

    檢查資源群組狀態欄位,以確認複製資源群組在 nodeC 上處於線上狀態。

接下來的步驟

請移至如何在主要叢集上建立 NFS 應用程式資源群組

Procedure如何在主要叢集上建立 NFS 應用程式資源群組

此程序描述了如何為 NFS 建立應用程式資源群組。此程序特定於該應用程式,不適用於其他類型的應用程式。

開始之前

完成如何在次要叢集上建立複製資源群組程序。

  1. 以 超級使用者或成為提供 solaris.cluster.modifysolaris.cluster.adminsolaris.cluster.read RBAC 授權的角色 存取 nodeA

  2. SUNW.nfs 註冊為資源類型。


    nodeA# clresourcetype register SUNW.nfs
    
  3. 如果尚未將 SUNW.HAStoragePlus 註冊為資源類型,請進行註冊。


    nodeA# clresourcetype register SUNW.HAStoragePlus
    
  4. 為裝置群組 devgrp 建立應用程式資源群組。


    nodeA# clresourcegroup create \
    -p Pathprefix=/global/etc \
    -p Auto_start_on_new_cluster=False \
    -p RG_dependencies=devgrp-stor-rg \
    nfs-rg
    
    Pathprefix=/global/etc

    指定群組中的資源可以寫入管理檔案的目錄。

    Auto_start_on_new_cluster=False

    指定應用程式資源群組並非自動啟動。

    RG_dependencies=devgrp-stor-rg

    指定應用程式資源群組所依賴的資源群組。在此範例中,應用程式資源群組依賴複製資源群組 devgrp-stor-rg

    如果將應用程式資源群組切換保護移轉至新的主要節點,將自動切換保護移轉複製資源群組。但是,如果將複製資源群組切換保護移轉至新的主要節點,則必須手動切換保護移轉應用程式資源群組。

    nfs-rg

    應用程式資源群組的名稱。

  5. SUNW.HAStoragePlus 資源增加至應用程式資源群組。


    nodeA# clresource create -g nfs-rg \
    -t SUNW.HAStoragePlus \
    -p FileSystemMountPoints=/global/掛載點 \
    -p AffinityOn=True \
    nfs-dg-rs
    
    create

    建立資源。

    -g

    指定要新增資源的資源群組。

    -t SUNW.HAStoragePlus

    指定資源的類型為 SUNW.HAStoragePlus

    -p FileSystemMountPoints=/global/

    指定檔案系統的掛載點為全域掛載點。

    -p AffinityOn=True

    指定應用程式資源必須為由 -p GlobalDevicePaths= 定義的全域裝置與叢集檔案系統執行相關性切換。因此,當應用程式資源群組發生故障轉移或切換保護移轉時,將對關聯的裝置群組執行切換保護移轉。

    nfs-dg-rs

    NFS 應用程式的 HAStoragePlus 資源的名稱。

    如需更多關於這些延伸特性的資訊,請參閱SUNW.HAStoragePlus(5) 線上手冊。

  6. 將本機的主機名稱資源增加至應用程式資源群組。


    nodeA# clreslogicalhostname create -g nfs-rg \
    lhost-nfsrg-prim
    

    主要叢集上的應用程式資源群組的邏輯主機名稱名為 lhost-nfsrg-prim

  7. 啟用資源、管理應用程式資源群組,並使應用程式資源群組上線。

    1. 啟用 NFS 應用程式的 HAStoragePlus 資源。


      nodeA# clresource enable nfs-rs
      
    2. 使應用程式資源群組在 nodeA 上連線。


      nodeA# clresourcegroup online -e -M -n nodeA nfs-rg
      
      online

      讓資源群組上線運作。

      -e

      啟用關聯的資源。

      -M

      管理資源群組。

      -n

      指定您要使資源群組上線的節點。

      nfs-rg

      資源群組的名稱。

  8. 驗證應用程式資源群組是否處於線上狀態。


    nodeA# clresourcegroup status
    

    檢查資源群組狀態欄位,以確定應用程式資源群組在 nodeAnodeB 上是否處於線上狀態。

接下來的步驟

請移至如何在次要叢集上建立 NFS 應用程式資源群組

Procedure如何在次要叢集上建立 NFS 應用程式資源群組

開始之前

完成如何在主要叢集上建立 NFS 應用程式資源群組程序。

  1. 以 超級使用者或成為提供 solaris.cluster.modifysolaris.cluster.adminsolaris.cluster.read RBAC 授權的角色 存取 nodeC

  2. SUNW.nfs 註冊為資源類型。


    nodeC# clresourcetype register SUNW.nfs
    
  3. 如果尚未將 SUNW.HAStoragePlus 註冊為資源類型,請進行註冊。


    nodeC# clresourcetype register SUNW.HAStoragePlus
    
  4. 為裝置群組建立應用程式資源群組。


    nodeC# clresourcegroup create \
    -p Pathprefix=/global/etc \
    -p Auto_start_on_new_cluster=False \
    -p RG_dependencies=devgrp-stor-rg \
    nfs-rg
    
    create

    建立資源群組。

    -p

    指定資源群組的特性。

    Pathprefix=/global/etc

    指定群組中的資源可以寫入管理檔案的目錄。

    Auto_start_on_new_cluster=False

    指定應用程式資源群組並非自動啟動。

    RG_dependencies=devgrp-stor-rg

    指定應用程式資源群組所依賴的資源群組。在此範例中,應用程式資源群組依賴複製資源群組。

    如果將應用程式資源群組切換保護移轉至新的主要節點,將自動切換保護移轉複製資源群組。但是,如果將複製資源群組切換保護移轉至新的主要節點,則必須手動切換保護移轉應用程式資源群組。

    nfs-rg

    應用程式資源群組的名稱。

  5. SUNW.HAStoragePlus 資源增加至應用程式資源群組。


    nodeC# clresource create -g nfs-rg \
    -t SUNW.HAStoragePlus \
    -p FileSystemMountPoints=/global/掛載點 \
    -p AffinityOn=True \
    nfs-dg-rs
    
    create

    建立資源。

    -g

    指定要新增資源的資源群組。

    -t SUNW.HAStoragePlus

    指定資源的類型為 SUNW.HAStoragePlus

    -p

    指定資源的特性。

    FileSystemMountPoints=/global/

    指定檔案系統的掛載點為全域掛載點。

    AffinityOn=True

    指定應用程式資源必須為由 -x GlobalDevicePaths= 定義的全域裝置與叢集檔案系統執行親合性切換保護移轉。因此,當應用程式資源群組發生故障轉移或切換保護移轉時,將對關聯的裝置群組執行切換保護移轉。

    nfs-dg-rs

    NFS 應用程式的 HAStoragePlus 資源的名稱。

    如需更多關於這些延伸特性的資訊,請參閱SUNW.HAStoragePlus(5) 線上手冊。

  6. 將本機的主機名稱資源增加至應用程式資源群組。


    nodeC# clreslogicalhostname create -g nfs-rg \
    lhost-nfsrg-sec
    

    次要叢集上的應用程式資源群組的邏輯主機名稱名為 lhost-nfsrg-sec

  7. 將 NFS 資源增加至應用程式資源群組。


    nodeC# clresource create -g nfs-rg \
    -t SUNW.nfs -p Resource_dependencies=nfs-dg-rs nfs-rg
    
  8. 確定應用程式資源群組未在 nodeC 上連線。


    nodeC# clresource disable -n nodeC nfs-rs
    nodeC# clresource disable -n nodeC nfs-dg-rs
    nodeC# clresource disable -n nodeC lhost-nfsrg-sec
    nodeC# clresourcegroup online -n "" nfs-rg
    

    在重新開機後,此資源群組仍然處於離線狀態,這是因為 Auto_start_on_new_cluster=False

  9. 如果全域磁碟區掛載於主要叢集上,則從次要叢集上卸載該全域磁碟區。


    nodeC# umount /global/掛載點
    

    如果磁碟區掛載於次要叢集上,同步化將失敗。

接下來的步驟

請至如何啟用資料複製的範例

如何啟用資料複製的範例

本小節說明如何為配置範例啟用資料複製。本小節使用 Sun StorageTek Availability Suite 軟體指令 sndradmiiadm。如需更多有關這些指令的資訊,請參閱 Sun StorageTek Availability documentation。

本小節包含以下程序:

Procedure如何在主要叢集上啟用複製

  1. 以 超級使用者或成為提供 solaris.cluster.read RBAC 授權的角色 存取 nodeA

  2. 清除所有異動。


    nodeA# lockfs -a -f
    
  3. 確認邏輯主機名稱 lhost-reprg-primlhost-reprg-sec 均處於線上狀態。


    nodeA# clresourcegroup status
    nodeC# clresourcegroup status
    

    檢查資源群組的狀態欄位。

  4. 啟用從主要叢集到次要叢集的遠端鏡像複製。

    此步驟會啟用從主要叢集上的主磁碟區到次要叢集上的主磁碟區的複製。另外,此步驟會啟用向 vol04 上的遠端鏡像點陣圖的複製。

    • 如果主要叢集與次要叢集未同步,請執行此指令︰

      • Sun StorEdge Availability Suite 軟體:


        nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \
        /dev/vx/rdsk/devgrp/vol01 \
        /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
        /dev/vx/rdsk/devgrp/vol01 \
        /dev/vx/rdsk/devgrp/vol04 ip sync
        
      • Sun StorageTek Availability Suite 軟體:


        nodeA# /usr/sbin/sndradm -n -e lhost-reprg-prim \
        /dev/vx/rdsk/devgrp/vol01 \
        /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
        /dev/vx/rdsk/devgrp/vol01 \
        /dev/vx/rdsk/devgrp/vol04 ip sync
        
    • 如果主要叢集與次要叢集同步,請執行此指令︰

      • Sun StorEdge Availability Suite 軟體:


        nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -E lhost-reprg-prim \
        /dev/vx/rdsk/devgrp/vol01 \
        /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
        /dev/vx/rdsk/devgrp/vol01 \
        /dev/vx/rdsk/devgrp/vol04 ip sync
        
    • Sun StorageTek Availability Suite 軟體:


      nodeA# /usr/sbin/sndradm -n -E lhost-reprg-prim \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 ip sync
      
  5. 啟用自動同步化。

    • Sun StorEdge Availability Suite 軟體:


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -a on lhost-reprg-prim \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 ip sync
      
    • Sun StorageTek Availability Suite 軟體:


      nodeA# /usr/sbin/sndradm -n -a on lhost-reprg-prim \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 ip sync
      

    此步驟啟用自動同步化。如果將自動同步化的作用中狀態設定為 on,則當系統重新開機或發生故障時將重新同步化磁碟區集。

  6. 驗證叢集是否處於記錄模式下。

    • Sun StorEdge Availability Suite 軟體:


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -P
      
    • Sun StorageTek Availability Suite 軟體:


      nodeA# /usr/sbin/sndradm -P
      

    輸出應類似於以下顯示:


    /dev/vx/rdsk/devgrp/vol01 ->
    lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01
    autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
    devgrp, state: logging

    在記錄模式下,狀態為 logging,自動同步化的使用中狀態為 off。當寫入到磁碟上的資料磁碟區時,將更新同一個磁碟上的點陣圖檔案。

  7. 啟用即時快照。

    • Sun StorEdge Availability Suite 軟體:


      nodeA# /usr/opt/SUNWesm/sbin/iiadm -e ind \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol02 \
      /dev/vx/rdsk/devgrp/vol03
      nodeA# /usr/opt/SUNWesm/sbin/iiadm -w \
      /dev/vx/rdsk/devgrp/vol02
      
    • Sun StorageTek Availability Suite 軟體:


      nodeA# /usr/sbin/iiadm -e ind \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol02 \
      /dev/vx/rdsk/devgrp/vol03
      nodeA# /usr/sbin/iiadm -w \
      /dev/vx/rdsk/devgrp/vol02
      

    此步驟可將主要叢集上的主磁碟區複製到同一個叢集上的影像磁碟區。主磁碟區、影像磁碟區和即時點陣圖磁碟區必須位於同一個裝置群組中。在此範例中,主磁碟區為 vol01,影像磁碟區為 vol02,即時點陣圖磁碟區為 vol03

  8. 將即時快照附加至遠端鏡像集。

    • Sun StorEdge Availability Suite 軟體:


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -I a \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol02 \
      /dev/vx/rdsk/devgrp/vol03
      
    • Sun StorageTek Availability Suite 軟體:


      nodeA# /usr/sbin/sndradm -I a \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol02 \
      /dev/vx/rdsk/devgrp/vol03
      

    此步驟使即時快照與遠端鏡像磁碟區集關聯起來。Sun StorageTek Availability Suite 軟體可確保在執行即時快照之後,才會發生遠端鏡像複製。

接下來的步驟

請移至如何在次要叢集上啟用複製

Procedure如何在次要叢集上啟用複製

開始之前

完成如何在主要叢集上啟用複製程序。

  1. 以超級使用者身份存取 nodeC

  2. 清除所有異動。


    nodeC# lockfs -a -f
    
  3. 啟用從主要叢集到次要叢集的遠端鏡像複製。

    • Sun StorEdge Availability Suite 軟體:


      nodeC# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 ip sync
      
    • Sun StorageTek Availability Suite 軟體:


      nodeC# /usr/sbin/sndradm -n -e lhost-reprg-prim \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 ip sync
      

    主要叢集偵測到次要叢集存在並開始同步化。請參閱 Sun StorEdge Availability Suite 的系統記錄檔 /var/opt/SUNWesm/ds.log 或 Sun StorageTek Availability Suite 的系統記錄檔 /var/adm 以取得關於叢集狀態的資訊。

  4. 啟用獨立的即時快照。

    • Sun StorEdge Availability Suite 軟體:


      nodeC# /usr/opt/SUNWesm/sbin/iiadm -e ind \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol02 \
      /dev/vx/rdsk/devgrp/vol03
      nodeC# /usr/opt/SUNWesm/sbin/iiadm -w \
      /dev/vx/rdsk/devgrp/vol02
      
    • Sun StorageTek Availability Suite 軟體:


      nodeC# /usr/sbin/iiadm -e ind \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol02 \
      /dev/vx/rdsk/devgrp/vol03
      nodeC# /usr/sbin/iiadm -w \
      /dev/vx/rdsk/devgrp/vol02
      
  5. 將即時快照附加至遠端鏡像集。

    • Sun StorEdge Availability Suite 軟體:


      nodeC# /usr/opt/SUNWesm/sbin/sndradm -I a \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol02 \
      /dev/vx/rdsk/devgrp/vol03
      
    • Sun StorageTek Availability Suite 軟體:


      nodeC# /usr/sbin/sndradm -I a \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol02 \
      /dev/vx/rdsk/devgrp/vol03
      
接下來的步驟

請移至如何執行資料複製的範例

如何執行資料複製的範例

本小節說明配置範例如何執行資料複製。本小節使用 Sun StorageTek Availability Suite 軟體指令 sndradmiiadm。如需更多關於這些指令的資訊,請參閱 Sun StorageTek Availability Suite 文件。

本小節包含以下程序:

Procedure如何執行遠端鏡像複製

在此程序中,主要磁碟的主磁碟區被複製到次要磁碟的主磁碟區。主磁碟區為 vol01,遠端鏡像點陣圖磁碟區為 vol04

  1. 以超級使用者身份存取 nodeA

  2. 驗證叢集是否處於記錄模式下。

    • Sun StorEdge Availability Suite 軟體:


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -P
      
    • Sun StorageTek Availability Suite 軟體:


      nodeA# /usr/sbin/sndradm -P
      

    輸出應類似於以下顯示:


    /dev/vx/rdsk/devgrp/vol01 ->
    lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01
    autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
    devgrp, state: logging

    在記錄模式下,狀態為 logging,自動同步化的使用中狀態為 off。當寫入到磁碟上的資料磁碟區時,將更新同一個磁碟上的點陣圖檔案。

  3. 清除所有異動。


    nodeA# lockfs -a -f
    
  4. nodeC 上,重複執行步驟 1步驟 3

  5. nodeA 的主磁碟區複製到 nodeC 的主磁碟區。

    • Sun StorEdge Availability Suite 軟體:


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -m lhost-reprg-prim \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 ip sync
      
    • Sun StorageTek Availability Suite 軟體:


      nodeA# /usr/sbin/sndradm -n -m lhost-reprg-prim \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 ip sync
      
  6. 等待直至複製完成並且磁碟區已同步化。

    • Sun StorEdge Availability Suite 軟體:


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -w lhost-reprg-prim \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 ip sync
      
    • Sun StorageTek Availability Suite 軟體:


      nodeA# /usr/sbin/sndradm -n -w lhost-reprg-prim \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 ip sync
      
  7. 確認叢集處於複製模式下。

    • Sun StorEdge Availability Suite 軟體:


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -P
      
    • Sun StorageTek Availability Suite 軟體:


      nodeA# /usr/sbin/sndradm -P
      

    輸出應類似於以下顯示:


    /dev/vx/rdsk/devgrp/vol01 ->
    lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01
    autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
    devgrp, state: replicating

    在複製模式下,狀態為 replicating,自動同步化的使用中狀態為 on。寫入主要磁碟區時,Sun StorageTek Availability Suite 軟體會更新次要磁碟區。

接下來的步驟

請移至如何執行即時快照

Procedure如何執行即時快照

在此程序中,即時快照用於同步化主要叢集的影像磁碟區與主要叢集的主磁碟區。主磁碟區為 vol01,點陣圖磁碟區為 vol04,影像磁碟區為 vol02

開始之前

完成如何執行遠端鏡像複製程序。

  1. 以 超級使用者或成為提供 solaris.cluster.modifysolaris.cluster.admin RBAC 授權的角色 存取 nodeA

  2. 停用 nodeA 上正在執行的資源。


    nodeA# clresource disable -n nodeA nfs-rs
    
  3. 將主要叢集變更為記錄模式。

    • Sun StorEdge Availability Suite 軟體:


      nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 ip sync
      
    • Sun StorageTek Availability Suite 軟體:


      nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 ip sync
      

    當寫入到磁碟上的資料磁碟區時,將更新同一個磁碟上的點陣圖檔案。未進行複製。

  4. 使主要叢集的陰影磁碟區與主要叢集的主磁碟區同步。

    • Sun StorEdge Availability Suite 軟體:


      nodeA# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02
      nodeA# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02
      
    • Sun StorageTek Availability Suite 軟體:


      nodeA# /usr/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02
      nodeA# /usr/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02
      
  5. 使次要叢集的陰影磁碟區與次要叢集的主磁碟區同步。

    • Sun StorEdge Availability Suite 軟體:


      nodeC# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02
      nodeC# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02
      
    • Sun StorageTek Availability Suite 軟體:


      nodeC# /usr/sbin/iiadm -u s /dev/vx/rdsk/devgrp/vol02
      nodeC# /usr/sbin/iiadm -w /dev/vx/rdsk/devgrp/vol02
      
  6. nodeA 上重新啟動應用程式。


    nodeA# clresource enable -n nodeA nfs-rs
    
  7. 重新同步化次要磁碟區與主要磁碟區。

    • Sun StorEdge Availability Suite 軟體:


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 ip sync
      
    • Sun StorageTek Availability Suite 軟體:


      nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 ip sync
      
接下來的步驟

請至如何驗證已正確配置複製

Procedure如何驗證已正確配置複製

開始之前

完成如何執行即時快照程序。

  1. 以 超級使用者或成為提供 solaris.cluster.admin RBAC 授權的角色 存取 nodeAnodeC

  2. 驗證主要叢集處於複製模式下,並且開啟了自動同步化功能。

    • Sun StorEdge Availability Suite 軟體:


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -P
      
    • Sun StorageTek Availability Suite 軟體:


      nodeA# /usr/sbin/sndradm -P
      

    輸出應類似於以下顯示:


    /dev/vx/rdsk/devgrp/vol01 ->
    lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01
    autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
    devgrp, state: replicating

    在複製模式下,狀態為 replicating,自動同步化的使用中狀態為 on。寫入主要磁碟區時,Sun StorageTek Availability Suite 軟體會更新次要磁碟區。

  3. 如果主要叢集未處於複製模式,請將其置於複製模式。

    • Sun StorEdge Availability Suite 軟體:


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 ip sync
      
    • Sun StorageTek Availability Suite 軟體:


      nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 ip sync
      
  4. 在用戶端機器上建立目錄。

    1. 以超級使用者身份登入到用戶端機器。

      您會看到類似於以下顯示的提示:


      client-machine#
    2. 在用戶端機器上建立目錄。


      client-machine# mkdir /dir
      
  5. 將該目錄掛載到主要叢集上的應用程式中,然後顯示掛載的目錄。

    1. 將該目錄掛載到主要叢集上的應用程式中。


      用戶端機器# mount -o rw lhost-nfsrg-prim:/global/掛載點 /目錄
      
    2. 顯示掛載的目錄。


      client-machine# ls /dir
      
  6. 將該目錄掛載到次要叢集上的應用程式中,然後顯示掛載的目錄。

    1. 卸載主要叢集上應用程式的目錄。


      client-machine# umount /dir
      
    2. 使應用程式資源群組在主要叢集上離線。


      nodeA# clresource disable -n nodeA nfs-rs
      nodeA# clresource disable -n nodeA nfs-dg-rs
      nodeA# clresource disable -n nodeA lhost-nfsrg-prim
      nodeA# clresourcegroup online -n "" nfs-rg
      
    3. 將主要叢集變更為記錄模式。

      • Sun StorEdge Availability Suite 軟體:


        nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \
        /dev/vx/rdsk/devgrp/vol01 \
        /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
        /dev/vx/rdsk/devgrp/vol01 \
        /dev/vx/rdsk/devgrp/vol04 ip sync
        
      • Sun StorageTek Availability Suite 軟體:


        nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \
        /dev/vx/rdsk/devgrp/vol01 \
        /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
        /dev/vx/rdsk/devgrp/vol01 \
        /dev/vx/rdsk/devgrp/vol04 ip sync
        

      當寫入到磁碟上的資料磁碟區時,將更新同一個磁碟上的點陣圖檔案。未進行複製。

    4. 請確定 PathPrefix 目錄可用。


      nodeC# mount | grep /global/etc
      
    5. 使應用程式資源群組在次要叢集上連線。


      nodeC# clresourcegroup online -n nodeC nfs-rg
      
    6. 以超級使用者身份存取用戶端機器。

      您會看到類似於以下顯示的提示:


      client-machine#
    7. 將已建立於步驟 4 的目錄掛載至次要叢集上的應用程式。


      用戶端機器# mount -o rw lhost-nfsrg-sec:/global/掛載點 /目錄
      
    8. 顯示掛載的目錄。


      client-machine# ls /dir
      
  7. 確定步驟 5 中顯示的目錄與步驟 6 顯示的目錄相同。

  8. 將主要叢集上的應用程式傳回到掛載的目錄。

    1. 使應用程式資源群組在次要叢集上離線。


      nodeC# clresource disable -n nodeC nfs-rs
      nodeC# clresource disable -n nodeC nfs-dg-rs
      nodeC# clresource disable -n nodeC lhost-nfsrg-sec
      nodeC# clresourcegroup online -n "" nfs-rg
      
    2. 請確定已從次要叢集上卸載全域磁碟區。


      nodeC# umount /global/掛載點
      
    3. 使應用程式資源群組在主要叢集上連線。


      nodeA# clresourcegroup online -n nodeA nfs-rg
      
    4. 將主要叢集變更為複製模式。

      • Sun StorEdge Availability Suite 軟體:


        nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \
        /dev/vx/rdsk/devgrp/vol01 \
        /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
        /dev/vx/rdsk/devgrp/vol01 \
        /dev/vx/rdsk/devgrp/vol04 ip sync
        
      • Sun StorageTek Availability Suite 軟體:


        nodeA# /usr/sbin/sndradm -n -u lhost-reprg-prim \
        /dev/vx/rdsk/devgrp/vol01 \
        /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
        /dev/vx/rdsk/devgrp/vol01 \
        /dev/vx/rdsk/devgrp/vol04 ip sync
        

      寫入主要磁碟區時,Sun StorageTek Availability Suite 軟體會更新次要磁碟區。

另請參閱

管理容錯移轉或切換保護移轉之範例

管理容錯移轉或切換保護移轉之範例

本小節說明如何引發切換保護移轉,以及如何將應用程式傳輸至次要叢集。在發生切換保護移轉或容錯移轉之後,請更新 DNS 項目。如需附加資訊,請參閱管理故障轉移或切換保護移轉的準則

本小節包含以下程序:

Procedure如何引發切換保護移轉

  1. 以 超級使用者或成為提供 solaris.cluster.admin RBAC 授權的角色 存取 nodeAnodeC

  2. 將主要叢集變更為記錄模式。

    • Sun StorEdge Availability Suite 軟體:


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 ip sync
      
    • Sun StorageTek Availability Suite 軟體:


      nodeA# /usr/sbin/sndradm -n -l lhost-reprg-prim \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devgrp/vol01 \
      /dev/vx/rdsk/devgrp/vol04 ip sync
      

    寫入磁碟上的資料磁碟區時,會更新同一個裝置群組上的點陣圖磁碟區。未進行複製。

  3. 確認主要叢集與次要叢集都處於記錄模式下,並且關閉了自動同步化功能。

    1. nodeA 上,確認模式與設定:

      • Sun StorEdge Availability Suite 軟體:


        nodeA# /usr/opt/SUNWesm/sbin/sndradm -P
        
      • Sun StorageTek Availability Suite 軟體:


        nodeA# /usr/sbin/sndradm -P
        

      輸出應類似於以下顯示:


      /dev/vx/rdsk/devgrp/vol01 ->
      lhost-reprg-sec:/dev/vx/rdsk/devgrp/vol01
      autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag:
      devgrp, state: logging
    2. nodeC 上,確認模式與設定:

      • Sun StorEdge Availability Suite 軟體:


        nodeC# /usr/opt/SUNWesm/sbin/sndradm -P
        
      • Sun StorageTek Availability Suite 軟體:


        nodeC# /usr/sbin/sndradm -P
        

      輸出應類似於以下顯示:


      /dev/vx/rdsk/devgrp/vol01 <-
      lhost-reprg-prim:/dev/vx/rdsk/devgrp/vol01
      autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag:
      devgrp, state: logging

    對於 nodeAnodeC,狀態應該為 logging,自動同步化的作用中狀態應該為 off

  4. 確認次要叢集已準備好接管主要叢集。


    nodeC# fsck -y /dev/vx/rdsk/devgrp/vol01
    
  5. 切換保護移轉至次要叢集。


    nodeC# clresourcegroup switch -n nodeC nfs-rg
    
接下來的步驟

請移至如何更新 DNS 項目

Procedure如何更新 DNS 項目

如需有關 DNS 如何將用戶端對映至叢集的說明,請參閱圖 4–8

開始之前

完成如何引發切換保護移轉程序。

  1. 啟動 nsupdate 指令。

    如需資訊,請參閱 nsupdate(1M) 線上手冊。

  2. 移除兩個叢集目前在應用程式資源群組的邏輯主機名稱與叢集 IP 位址之間的 DNS 對應。


    > update delete lhost-nfsrg-prim A
    > update delete lhost-nfsrg-sec A
    > update delete ip 位址 1rev.in-addr.arpa ttl PTR lhost-nfsrg-prim
    > update delete ip 位址 2rev.in-addr.arpa ttl PTR lhost-nfsrg-sec
    
    ipaddress1rev

    主要叢集的 IP 位址 (依反向順序)。

    ipaddress2rev

    次要叢集的 IP 位址 (依反向順序)。

    ttl

    存在時間 (以秒為單位)。典型值為 3600。

  3. 為兩個叢集建立應用程式資源群組的邏輯主機名稱與叢集 IP 位址之間的新 DNS 對應。

    將主要邏輯主機名稱對應至次要叢集的 IP 位址,並將次要邏輯主機名稱對應至主要叢集的 IP 位址。


    > update add lhost-nfsrg-prim ttl A ip 位址 2fwd
    > update add lhost-nfsrg-sec ttl A ip 位址 1fwd
    > update add ip 位址 2rev.in-addr.arpa ttl PTR lhost-nfsrg-prim
    > update add ip 位址 1rev.in-addr.arpa ttl PTR lhost-nfsrg-sec
    
    ipaddress2fwd

    次要叢集的 IP 位址 (依正向順序)。

    ipaddress1fwd

    主要叢集的 IP 位址 (依正向順序)。