Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)

第 6 章 使用 Sun StorEdge Availability Suite 3.1 軟體配置資料複製

本章提供使用 Sun StorEdge Availability Suite 3.1 軟體在叢集之間配置資料複製的準則。

其中也包含如何使用 Sun StorEdge Availability Suite 3.1 軟體為 NFS 應用程式配置資料複製的範例。該範例使用特定叢集配置,並提供有關如何執行個別作業的詳細資訊。它不包含其他應用程式或其他叢集配置所需要的所有步驟。

本章包含下列小節:

本章包含以下程序︰

資料複製的簡介

本節介紹了災難偏差,並說明了 Sun StorEdge Availability Suite 軟體使用的資料複製方法。

何為災難偏差?

災難偏差是指當主要叢集發生故障時,系統在替代叢集上復原應用程式的能力。災難偏差以資料複製故障轉移為基礎。

資料複製是指將資料從主要叢集複製到備份叢集或次要叢集。透過資料複製,次要叢集便具有主要叢集資料的最新副本。可以將次要叢集放置在遠離主要叢集的位置。

故障轉移指將主要叢集的資源群組或裝置群組自動重新放置在次要叢集內。如果主要叢集發生故障,便立即可以在次要叢集上使用應用程式與資料。

Sun StorEdge Availability Suite 軟體使用的資料複製方法

本節說明了 Sun StorEdge Availability Suite 軟體使用的遠端鏡像複製方法與即時快照方法。此軟體使用 sndradm(1RPC) 與 iiadm(1II) 指令來複製資料。如需有關這些指令的詳細資訊,請參閱Sun Cluster 3.0 and Sun StorEdge Software Integration Guide

遠端鏡像複製

圖 6–1 中闡明了遠端鏡像複製。透過 TCP/IP 連線,將主要磁碟主容體的資料複製到次要磁碟的主容體。遠端鏡像點陣圖用於追蹤主要磁碟主容體與次要磁碟主容體之間的差異。

圖 6–1 遠端鏡像複製

圖闡明了從主要磁碟主容體到次要磁碟主容體的遠端鏡像複製。

可以即時同步或非同步地執行遠端鏡像複製。可以個別地配置每個叢集內的每個容體集,以進行同步複製或非同步複製。

在同步資料複製中,直到更新遠端容體後才會確認寫入作業已完成。

在非同步資料複製中,在更新遠端容體之前便會確認寫入作業已完成。非同步資料複製為遠距離和低頻寬傳輸提供了更大的靈活性。

即時快照

圖 6–2 中闡明了即時快照。每個磁碟主容體的資料會複製到同一個磁碟的陰影容體中。即時點陣圖追蹤主容體與陰影容體之間的差異。將資料複製到陰影容體時,會重設即時點陣圖。

圖 6–2 即時快照

圖顯示了即時快照。

配置範例中的複製

下圖闡明了如何在配置範例中使用遠端鏡像複製與即時快照。

圖 6–3 配置範例中的複製

圖顯示了配置範例使用遠端鏡像複製與即時快照的方式。

配置資料複製的準則

本節提供了在叢集中配置資料複製的準則。本節還包含關於複製資源群組與應用程式資源群組的配置提示。在您為叢集配置資料複製時,請使用這些準則。

本節討論下列主題:

配置複製資源群組

複製資源群組將 Sun StorEdge Availability Suite 軟體控制下的裝置群組與邏輯主機名稱資源搭配在一起。複製資源群組必須具備下列特性︰

配置應用程式資源群組

為了具備高度可用性,必須將應用程式作為應用程式資源群組中的資源進行管理。可以為故障轉移應用程式或可延展應用程式配置應用程式資源群組。

在主要叢集上配置的應用程式資源與應用程式資源群組,也必須在次要叢集上進行配置。並且,必須將應用程式資源存取的資料複製到次要叢集。

本節提供了下列應用程式資源群組的配置準則︰

配置故障轉移應用程式的資源群組

在防故障備用應用程式中,應用程式每次在一個節點上執行。如果該節點發生故障,應用程式將故障轉移至同一個叢集內的其他節點。故障轉移應用程式的資源群組必須具備下列特性︰

下圖闡明了在故障轉移應用程式中應用程式資源群組與複製資源群組的配置。

圖 6–4 故障轉移應用程式中資源群組的配置

圖闡明了在故障轉移應用程式中應用程式資源群組與複製資源群組的配置。

配置可延展應用程式的資源群組

在可延展應用程式中,應用程式在數個節點上執行,以建立單一邏輯服務。如果正在執行可延展應用程式的節點發生故障,將不會發生故障轉移。應用程式會繼續在其他節點上執行。

如果將可延展應用程式作為應用程式資源群組中的資源來管理,則無須將應用程式資源群組與裝置群組搭配在一起。因此,無須為應用程式資源群組建立 HAStoragePlus 資源。

可延展應用程式的資源群組必須具備下列特性︰

下圖闡明了可延展應用程式中資源群組的配置。

圖 6–5 可延展應用程式中資源群組的配置

圖闡明了可延展應用程式中資源群組的配置。

管理故障轉移或切換保護移轉的準則

如果主要叢集發生故障,必須儘快將應用程式切換保護移轉至次要叢集。若要啟用次要叢集來接管,必須更新 DNS。另外,必須將次要容體掛載於應用程式檔案系統的掛載點目錄上。

DNS 使某個用戶端與某個應用程式的邏輯主機名稱關聯起來。在發生故障轉移或切換保護移轉之後,必須移除主要叢集的 DNS 對映,並且必須建立次要叢集的 DNS 對映。下圖顯示了 DNS 將用戶端對映至叢集的方式。

圖 6–6 用戶端與叢集的 DNS 對映

圖顯示了 DNS 將用戶端對映至叢集的方式。

若要更新 DNS,請使用 nsupdate 指令。如需相關資訊,請參閱 nsupdate(1M) 線上說明手冊。如需如何處理故障轉移或切換保護移轉的範例,請參閱如何處理故障轉移或切換保護移轉的範例

在修復之後,可使主要叢集恢復連線。若要切換回原始主要叢集,請執行下列步驟︰

  1. 使主要叢集與次要叢集同步,以確保主要容體是最新的。

  2. 更新 DNS,以便用戶端可以存取主要叢集上的應用程式。

  3. 將主要容體掛載到應用程式檔案系統的掛載點目錄上。

配置範例

本節提供了有關如何透過 Sun StorEdge Availability Suite 軟體為 NFS 應用程式配置資料複製的逐步作業範例。

連接與安裝叢集

圖 6–7 闡明了配置範例中使用的叢集配置。配置範例中的次要叢集包含一個節點,但可以使用其他叢集配置。

圖 6–7 叢集配置範例

圖闡明了配置範例中使用的叢集配置。

表 6–1 概括了配置範例需要的硬體與軟體。必須先將 Solaris 作業系統、Sun Cluster 軟體以及容體管理程式軟體安裝在叢集節點上,然後再安裝 Sun StorEdge Availability Suite 軟體與修補程式。

表 6–1 需要的硬體與軟體

硬體或軟體 

需求 

節點硬體 

所有使用 Solaris 作業系統的伺服器均支援 Sun StorEdge Availability Suite 軟體。 

如需有關要使用之硬體的資訊,請參閱Sun Cluster 3.x Hardware Administration Manual

磁碟空間 

大約 11 Mb。 

Solaris 作業系統 

Sun Cluster 軟體支援的 Solaris 8 或 Solaris 9 版本。 

所有節點均必須使用相同版本的 Solaris 作業系統。 

如需有關安裝的資訊,請參閱安裝軟體

Sun Cluster 軟體 

Sun Cluster 3.1 9/04 軟體。 

如需有關安裝的資訊,請參閱第 2 章, 安裝和配置 Sun Cluster 軟體如何在單一節點叢集上安裝 Sun Cluster 軟體

容體管理程式軟體 

Solstice DiskSuite 或 Solaris 容體管理程式 軟體或 VERITAS Volume Manager (VxVM) 軟體。 

所有節點必須使用相同版本的容體管理程式軟體。 

有關安裝的資訊在安裝和配置 Solstice DiskSuite 或 Solaris 容體管理程式軟體SPARC: 安裝和配置 VxVM 軟體中。

Sun StorEdge Availability Suite 軟體 

如需有關如何安裝軟體的資訊,請參閱Sun StorEdge Availability Suite 3.1 Point-in-Time Copy Software Installation GuideSun StorEdge Availability Suite 3.1 Remote Mirror Software Installation Guide

Sun StorEdge Availability Suite 軟體修補程式 

如需有關最新修補程式的資訊,請參閱 http://sunsolve.sun.com

如何配置裝置群組與資源群組的範例

本章說明了為 NFS 應用程式配置磁碟裝置群組與資源群組的方式。下列表格列示了為配置範例建立的群組與資源的名稱。

表 6–2 配置範例中群組與資源的摘要

群組或資源 

姓名 

描述 

磁碟裝置群組 

devicegroup

磁碟裝置群組。 

複製資源群組與資源 

devicegroup-stor-rg

複製資源群組。 

lhost-reprg-primlhost-reprg-sec

主要叢集與次要叢集上的複製資源群組的邏輯主機名稱。 

devicegroup-stor

複製資源群組的 HAStoragePlus 資源。 

應用程式資源群組與資源 

nfs-rg

應用程式資源群組。 

lhost-nfsrg-primlhost-nfsrg-sec

主要叢集與次要叢集上的應用程式資源群組的邏輯主機名稱。 

nfs-dg-rs

應用程式的 HAStoragePlus 資源。 

nfs-rs

NFS 資源。 

devicegroup-stor-rg 之外,群組與資源的名稱是可以依需要進行變更的範例名稱。複製資源群組的名稱格式必須為 devicegroup-stor-rg

配置磁碟裝置群組

本節說明了在主要叢集與次要叢集上配置磁碟裝置群組的方式。此配置範例使用 VxVM 軟體。如需有關 Solstice DiskSuite 或 Solaris 容體管理程式 軟體的資訊,請參閱第 3 章, 安裝和配置 Solstice DiskSuite 或 Solaris 容體管理程式軟體

下圖闡明了在磁碟裝置群組中建立的容體。

圖 6–8 磁碟裝置群組的容體

圖顯示了在磁碟裝置群組中建立的容體。


注意 –

本節中定義的容體不得包含磁碟標籤私有區域,如磁柱 0。VxVM 軟體會自動管理此限制。


如何在主要叢集上配置磁碟裝置群組
  1. 建立包含四個容體 (容體 1 至容體 4) 的磁碟群組。

    如需有關透過使用 VxVM 軟體配置磁碟群組的資訊,請參閱第 4 章, SPARC: 安裝與配置 VERITAS Volume Manager

  2. 以超級使用者身份存取 nodeA

    nodeA 是主要叢集的第一個節點。如需有關哪個節點是 nodeA 的提示,請參閱圖 6–7

  3. 配置磁碟群組以建立磁碟裝置群組。


    nodeA# /usr/cluster/bin/scconf -a -D type=vxvm,name=devicegroup \
    ,nodelist=nodeA:nodeB
    

    磁碟裝置群組稱為 devicegroup

  4. 啟動磁碟裝置群組。


    nodeA# /usr/cluster/bin/scswitch -z -D devicegroup -h nodeA
    
  5. 使磁碟裝置群組與 Sun Cluster 軟體同步。


    nodeA# /usr/cluster/bin/scconf -c -D name=devicegroup,sync
    
  6. 為磁碟裝置群組建立檔案系統。


    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol01 < /dev/null
    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol02 < /dev/null
    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol03 < /dev/null
    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol04 < /dev/null
    
  7. 透過將下列實體加入 nodeAnodeB 上的 /.rhosts 檔,在主要叢集與次要叢集的節點之間啟用遠端存取。


    nodeC +
    + root
如何在次要叢集上配置磁碟裝置群組
  1. 請遵循如何在主要叢集上配置磁碟裝置群組中的程序執行,但下列情況除外︰

    • nodeC 替代 nodeA

    • 不使用 nodeB

    • 步驟 3 中,僅在節點清單中包含 nodeC。例如:


      nodeC# /usr/cluster/bin/scconf -a -D type=vxvm,name=devicegroup \
      ,nodelist=nodeC
      
    • 步驟 7 中,僅將下列實體加入 nodeC 上的 /.rhosts 檔︰


      nodeA +
      nodeB +
      + root

為 NFS 應用程式配置檔案系統

本節說明了如何為 NFS 應用程式配置檔案系統。

如何為 NFS 應用程式配置主要叢集上的檔案系統
  1. nodeAnodeB 上,建立 NFS 檔案系統的掛載點目錄。

    例如:


    nodeA# mkdir /global/mountpoint
    
  2. nodeAnodeB 上,配置要在掛載點上自動掛載的主容體。

    nodeAnodeB 上的 /etc/vfstab 檔中,加入或替代下列文字。文字必須在單一行上。


    /dev/vx/dsk/devicegroup/vol01 /dev/vx/rdsk/devicegroup/vol01 \
    /global/mountpoint ufs 3 no global,logging

    如需有關磁碟裝置群組中所用容體名稱與容體編號的提示,請參閱圖 6–8

  3. nodeA 上,為 Sun StorEdge Availability Suite 軟體使用的檔案系統資訊建立容體。


    nodeA# /usr/sbin/vxassist -g devicegroup make vol05 120m disk1
    

    容體 5 包含 Sun StorEdge Availability Suite 軟體使用的檔案系統資訊。

  4. nodeA 上,使裝置群組與 Sun Cluster 軟體重新同步。


    nodeA# /usr/cluster/bin/scconf -c -D name=devicegroup,sync
    
  5. nodeA 上,為容體 5 建立檔案系統。


    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol05
    
  6. nodeAnodeB 上,為容體 5 建立掛載點。

    例如:


    nodeA# mkdir /global/etc
    
  7. nodeAnodeB 上,配置要在掛載點上自動掛載的容體 5。

    nodeAnodeB 上的 /etc/vfstab 檔中,加入或替代下列文字。文字必須在單一行上。


    /dev/vx/dsk/devicegroup/vol05 /dev/vx/rdsk/devicegroup/vol05 \
    /global/etc ufs 3 yes global,logging
  8. nodeA 上掛載容體 5。


    nodeA# mount /global/etc
    
  9. 使遠端系統可以存取容體 5。

    1. nodeA 上建立稱為 /global/etc/SUNW.nfs 的目錄。


      nodeA# mkdir -p /global/etc/SUNW.nfs
      
    2. nodeA 上建立檔案 /global/etc/SUNW.nfs/dfstab.nfs-rs


      nodeA# touch /global/etc/SUNW.nfs/dfstab.nfs-rs
      
    3. 將以下行加入 nodeA 上的 /global/etc/SUNW.nfs/dfstab.nfs-rs 檔案︰


      share -F nfs -o rw -d "HA NFS" /global/mountpoint
      
如何為 NFS 應用程式配置次要叢集上的檔案系統。

    請重複執行如何為 NFS 應用程式配置主要叢集上的檔案系統中的程序,但下列情況除外︰

    • nodeC 替代 nodeA

    • 不使用 nodeB

建立複製資源群組

本節說明了在主要叢集與次要叢集上建立複製資源群組的方式。

如何在主要叢集上建立複製資源群組
  1. 以超級使用者身份存取 nodeA

  2. SUNW.HAStoragePlus 註冊為資源類型。


    nodeA# /usr/cluster/bin/scrgadm -a -t SUNW.HAStoragePlus
    
  3. 為磁碟裝置群組建立複製資源群組。


    nodeA# /usr/cluster/bin/scrgadm -a -g devicegroup-stor-rg -h nodeA,nodeB
    
    devicegroup

    磁碟裝置群組的名稱。

    devicegroup-stor-rg

    複製資源群組的名稱。

    -h nodeA, nodeB

    指定可以主控複製資源群組的叢集節點。

  4. SUNW.HAStoragePlus 資源加入至複製資源群組。


    nodeA# /usr/cluster/bin/scrgadm -a -j devicegroup-stor \
    -g devicegroup-stor-rg -t SUNW.HAStoragePlus \
    -x GlobalDevicePaths=devicegroup \
    -x AffinityOn=True
    
    devicegroup-stor

    複製資源群組的 HAStoragePlus 資源。

    -x GlobalDevicePaths=

    指定 Sun StorEdge Availability Suite 軟體依賴的延伸屬性。

    -x AffinityOn=True

    指定 SUNW.HAStoragePlus 資源必須為由 -x GlobalDevicePaths= 定義的整體裝置與叢集檔案系統執行親合性切換保護移轉。因此,當複製資源群組發生故障轉移或切換保護移轉時,將對關聯的裝置群組執行切換保護移轉。

    如需有關這些延伸屬性的詳細資訊,請參閱 SUNW.HAStoragePlus(5) 線上說明手冊。

  5. 將邏輯主機名稱資源加入至複製資源群組。


    nodeA# /usr/cluster/bin/scrgadm -a -L \
    -j lhost-reprg-prim -g devicegroup-stor-rg -l lhost-reprg-prim
    

    其中,lhost-reprg-prim 是主要叢集上複製資源群組的邏輯主機名稱。

  6. 啟用資源、管理資源群組,並使資源群組上線。


    nodeA# /usr/cluster/bin/scswitch -Z -g devicegroup-stor-rg
    nodeA# /usr/cluster/bin/scswitch -z -g devicegroup-stor-rg -h nodeA
    
  7. 驗證資源群組是否處於線上狀態。


    nodeA# /usr/cluster/bin/scstat -g
    

    檢查資源群組狀態欄位,以確認 nodeAnodeB 上的複製資源群組處於線上狀態。

如何在次要叢集上建立複製資源群組

    請重複執行如何在主要叢集上建立複製資源群組中的程序,但下列情況除外︰

    • nodeC 替代 nodeA

    • 不使用 nodeB

    • lhost-reprg-sec 替代對 lhost-reprg-prim 的參考。

建立應用程式資源群組

本節說明了為 NFS 應用程式建立應用程式資源群組的方式。本節中的程序專用於此應用程式。這些程序不可用於其他類型的應用程式。

如何在主要叢集上建立應用程式資源群組
  1. 以超級使用者身份存取 nodeA

  2. SUNW.nfs 註冊為資源類型。


    nodeA# scrgadm -a -t SUNW.nfs
    
  3. 如果尚未將 SUNW.HAStoragePlus 註冊為資源類型,請進行註冊。


    nodeA# scrgadm -a -t SUNW.HAStoragePlus
    
  4. devicegroup 建立應用程式資源群組。


    nodeA# scrgadm -a -g nfs-rg \
    -y Pathprefix=/global/etc \
    -y Auto_start_on_new_cluster=False \
    -y RG_dependencies=devicegroup-stor-rg
    
    nfs-rg

    為應用程式資源群組的名稱。

    Pathprefix=/global/etc

    指定群組中的資源可以寫入管理檔案的目錄。

    Auto_start_on_new_cluster=False

    指定應用程式資源群組並非自動啟動。

    RG_dependencies=devicegroup-stor-rg

    指定應用程式資源群組所依賴的資源群組。在此範例中,應用程式資源群組依賴複製資源群組。

    如果將應用程式資源群組切換保護移轉至新的主要節點,將自動切換保護移轉複製資源群組。但是,如果將複製資源群組切換保護移轉至新的主要節點,則必須手動切換保護移轉應用程式資源群組。

  5. SUNW.HAStoragePlus 資源加入至應用程式資源群組。


    nodeA# scrgadm -a -j nfs-dg-rs -g nfs-rg \
    -t SUNW.HAStoragePlus \
    -x FileSystemMountPoints=/global/mountpoint \
    -x AffinityOn=True
    
    nfs-dg-rs

    為 NFS 應用程式的 HAStoragePlus 資源的名稱。

    -x FileSystemMountPoints=/global/

    指定檔案系統的掛載點為全域掛載點。

    -t SUNW.HAStoragePlus

    指定資源的類型為 SUNW.HAStoragePlus

    -x AffinityOn=True

    指定應用程式資源必須為由 -x GlobalDevicePaths= 定義的整體裝置與叢集檔案系統執行親合性切換保護移轉。因此,當應用程式資源群組發生故障轉移或切換保護移轉時,將對關聯的裝置群組執行切換保護移轉。

    如需有關這些延伸屬性的詳細資訊,請參閱 SUNW.HAStoragePlus(5) 線上說明手冊。

  6. 將邏輯主機名稱資源加入至應用程式資源群組。


    nodeA# /usr/cluster/bin/scrgadm -a -L -j lhost-nfsrg-prim -g nfs-rg \
    -l lhost-nfsrg-prim
    

    其中,lhost-nfsrg-prim 是主要叢集上應用程式資源群組的邏輯主機名稱。

  7. 啟用資源、管理應用程式資源群組,並使應用程式資源群組上線。

    1. 使 NFS 應用程式的 HAStoragePlus 資源上線。


      nodeA# /usr/cluster/bin/scrgadm -a -g nfs-rg \
      -j nfs-rs -t SUNW.nfs -y Resource_dependencies=nfs-dg-rs
      
    2. 使應用程式資源群組在 nodeA 上連線。


      nodeA# /usr/cluster/bin/scswitch -Z -g nfs-rg
      nodeA# /usr/cluster/bin/scswitch -z -g nfs-rg -h nodeA
      
  8. 驗證應用程式資源群組是否處於線上狀態。


    nodeA# /usr/cluster/bin/scstat -g
    

    檢查資源群組狀態欄位,以確定應用程式資源群組在 nodeAnodeB 上是否處於線上狀態。

如何在次要叢集上建立應用程式資源群組
  1. 如何在主要叢集上建立應用程式資源群組步驟 1步驟 6 的說明建立應用程式資源群組,但下列情況除外︰

    • nodeC 替代 nodeA

    • 忽略對 nodeB 的參考。

    • lhost-nfsrg-sec 替代對 lhost-nfsrg-prim 的參考。

  2. 確定應用程式資源群組未在 nodeC 上連線。


    nodeC# /usr/cluster/bin/scswitch -n -j nfs-rs
    nodeC# /usr/cluster/bin/scswitch -n -j nfs-dg-rs
    nodeC# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-sec
    nodeC# /usr/cluster/bin/scswitch -z -g nfs-rg -h ""
    

    在重新開機後,此資源群組仍然處於離線狀態,這是因為 Auto_start_on_new_cluster=False

  3. 如果整體容體掛載於主要叢集上,則從次要叢集上卸載該整體容體。


    nodeC# umount /global/mountpoint
    

    如果容體掛載於次要叢集上,同步化將失敗。

如何啟用資料複製的範例

本節說明了為配置範例啟用資料複製的方式。本節使用 Sun StorEdge Availability Suite 軟體指令 sndradmiiadm。如需有關這些指令的詳細資訊,請參閱Sun Cluster 3.0 and Sun StorEdge Software Integration Guide

如何在主要叢集上啟用複製
  1. 以超級使用者身份存取 nodeA

  2. 清除所有異動。


    nodeA# /usr/sbin/lockfs -a -f
    
  3. 確認邏輯主機名稱 lhost-reprg-primlhost-reprg-sec 均處於線上狀態。


    nodeA# /usr/cluster/bin/scstat -g
    

    檢查資源群組的狀態欄位。

  4. 啟用從主要叢集到次要叢集的遠端鏡像複製。

    此步驟會啟用從主要叢集主容體到次要叢集主容體的複製。另外,此步驟還啟用對容體 4 上的遠端鏡像點陣圖的複製。

    • 如果主要叢集與次要叢集未同步,請執行此指令︰


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 ip sync 
      
    • 如果主要叢集與次要叢集同步,請執行此指令︰


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -E lhost-reprg-prim \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 ip sync
      
  5. 啟用自動同步化。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -a on lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    

    此步驟啟用自動同步化。如果將自動同步化的作用中狀態設定為 on,則當系統重新開機或發生故障時將重新同步化容體集。

  6. 驗證叢集是否處於記錄模式下。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -P
    

    輸出結果應該如下:


    /dev/vx/rdsk/devicegroup/vol01 ->
    lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01
    autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
    devicegroup, state: logging

    在記錄模式下,狀態為 logging,自動同步化的作用中狀態為 off。當寫入到磁碟上的資料容體時,將更新同一個磁碟上的點陣圖檔案。

  7. 啟用即時快照。


    nodeA# /usr/opt/SUNWesm/sbin/iiadm -e ind \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol02 \
    /dev/vx/rdsk/devicegroup/vol03
    nodeA# /usr/opt/SUNWesm/sbin/iiadm -w \
    /dev/vx/rdsk/devicegroup/vol02
    

    此步驟使主要磁碟上的主容體複製到同一個磁碟上的陰影容體中。在此範例中,主容體為容體 1,陰影容體為容體 2,即時點陣圖容體為容體 3。

  8. 將即時快照附加至遠端鏡像集。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -I a \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol02 \
    /dev/vx/rdsk/devicegroup/vol03
    

    此步驟使即時快照與遠端鏡像容體集關聯起來。Sun StorEdge Availability Suite 軟體確保執行即時快照後才會發生遠端鏡像複製。

如何在次要叢集上啟用複製
  1. 以超級使用者身份存取 nodeC

  2. 清除所有異動。


    nodeC# /usr/sbin/lockfs -a -f
    
  3. 啟用從主要叢集到次要叢集的遠端鏡像複製。


    nodeC# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    

    主要叢集偵測到次要叢集存在並開始同步化。請參閱系統日誌檔 /var/opt/SUNWesm/ds.log,以取得有關叢集狀態的資訊。

  4. 啟用獨立的即時快照。


    nodeC# /usr/opt/SUNWesm/sbin/iiadm -e ind \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol02 \
    /dev/vx/rdsk/devicegroup/vol03
    nodeC# /usr/opt/SUNWesm/sbin/iiadm -w \
    /dev/vx/rdsk/devicegroup/vol02
    
  5. 將即時快照附加至遠端鏡像集。


    nodeC# /usr/opt/SUNWesm/sbin/sndradm -I a \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol02 \
    /dev/vx/rdsk/devicegroup/vol03
    

如何執行資料複製的範例

本節說明了為配置範例執行資料複製的方式。本節使用 Sun StorEdge Availability Suite 軟體指令 sndradmiiadm。如需有關這些指令的詳細資訊,請參閱Sun Cluster 3.0 and Sun StorEdge Software Integration Guide

如何執行遠端鏡像複製

在此程序中,將主要磁碟的主容體複製到次要磁碟的主容體。主容體為容體 1,遠端鏡像點陣圖容體為容體 4。

  1. 以超級使用者身份存取 nodeA

  2. 驗證叢集是否處於記錄模式下。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -P
    

    輸出結果應該如下:


    /dev/vx/rdsk/devicegroup/vol01 ->
    lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01
    autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
    devicegroup, state: logging

    在記錄模式下,狀態為 logging,自動同步化的作用中狀態為 off。當寫入到磁碟上的資料容體時,將更新同一個磁碟上的點陣圖檔案。

  3. 清除所有異動。


    nodeA# /usr/sbin/lockfs -a -f
    
  4. nodeC 上,重複執行步驟 1步驟 3

  5. nodeA 的主容體複製到 nodeC 的主容體。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -m lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    
  6. 等待直至複製完成並且容體已同步化。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -w lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    
  7. 確認叢集處於複製模式下。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -P
    

    輸出結果應該如下:


    /dev/vx/rdsk/devicegroup/vol01 ->
    lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01
    autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
    devicegroup, state: replicating

    在複製模式下,狀態為 replicating,自動同步化的作用中狀態為 on。寫入到主要容體時,Sun StorEdge Availability Suite 軟體將更新次要容體。

如何執行即時快照

在此程序中,即時快照用於使主要叢集的陰影容體與主要叢集的主容體同步。主容體為容體 1,陰影容體為容體 2。

  1. 以超級使用者身份存取 nodeA

  2. 停止 nodeA 上執行的應用程式。


    nodeA# /usr/cluster/bin/scswitch -n -j nfs-rs
    
  3. 將主要叢集置於記錄模式下。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    

    當寫入到磁碟上的資料容體時,將更新同一個磁碟上的點陣圖檔案。未進行複製。

  4. 使主要叢集的陰影容體與主要叢集的主容體同步。


    nodeA# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devicegroup/vol02
    nodeA# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devicegroup/vol02
    
  5. 使次要叢集的陰影容體與次要叢集的主容體同步。


    nodeC# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devicegroup/vol02
    nodeC# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devicegroup/vol02
    
  6. nodeA 上重新啟動應用程式。


    nodeA# /usr/cluster/bin/scswitch -e -j nfs-rs
    
  7. 重新同步化次要容體與主要容體。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    

如何驗證已正確配置複製的範例

本節說明了在配置範例中確認複製配置的方式。

如何驗證已正確配置複製
  1. 驗證主要叢集處於複製模式下,並且開啟了自動同步化功能。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -P
    

    輸出結果應該如下:


    /dev/vx/rdsk/devicegroup/vol01 ->
    lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01
    autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
    devicegroup, state: replicating

    在複製模式下,狀態為 replicating,自動同步化的作用中狀態為 on。寫入到主要容體時,Sun StorEdge Availability Suite 軟體將更新次要容體。

    如果主要叢集不在複製模式下,請將其置於複製模式下,如下所示︰


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    
  2. 在用戶端機器上建立一個目錄。

    1. 以超級使用者身份登入到用戶端機器。

      將看到如下提示︰


      client-machine#
    2. 在該用戶端機器上建立一個目錄。


      client-machine# mkdir /dir
      
  3. 將該目錄掛載到主要叢集上的應用程式中,然後顯示掛載的目錄。

    1. 將該目錄掛載到主要叢集上的應用程式中。


      client-machine# mount -o rw lhost-nfsrg-prim:/global/mountpoint /dir
      
    2. 顯示掛載的目錄。


      client-machine# ls /dir
      
  4. 將該目錄掛載到次要叢集上的應用程式中,然後顯示掛載的目錄。

    1. 卸載主要叢集上應用程式的目錄。


      client-machine# umount /dir
      
    2. 使應用程式資源群組在主要叢集上離線。


      nodeA# /usr/cluster/bin/scswitch -n -j nfs-rs
      nodeA# /usr/cluster/bin/scswitch -n -j nfs-dg-rs
      nodeA# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-prim
      nodeA# /usr/cluster/bin/scswitch -z -g nfs-rg -h ""
      
    3. 將主要叢集置於記錄模式下。


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 ip sync
      

      當寫入到磁碟上的資料容體時,將更新同一個磁碟上的點陣圖檔案。未進行複製。

    4. 使應用程式資源群組在次要叢集上連線。


      nodeC# /usr/cluster/bin/scswitch -Z -g nfs-rg
      
    5. 以超級使用者身份存取用戶端機器。

      將看到如下提示︰


      client-machine#
    6. 將在步驟 2 中建立的目錄掛載到次要叢集的應用程式中。


      client-machine# mount -o rw lhost-nfsrg-sec:/global/mountpoint /dir
      
    7. 顯示掛載的目錄。


      client-machine# ls /dir
      
  5. 請確定步驟 3步驟 4 中顯示的目錄相同。

  6. 將主要叢集上的應用程式傳回到掛載的目錄。

    1. 使應用程式資源群組在次要叢集上離線。


      nodeC# /usr/cluster/bin/scswitch -n -j nfs-rs
      nodeC# /usr/cluster/bin/scswitch -n -j nfs-dg-rs
      nodeC# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-sec
      nodeC# /usr/cluster/bin/scswitch -z -g nfs-rg -h ""
      
    2. 請確定已從次要叢集上卸載整體容體。


      nodeC# umount /global/mountpoint
      
    3. 使應用程式資源群組在主要叢集上連線。


      nodeA# /usr/cluster/bin/scswitch -Z -g nfs-rg
      
    4. 將主要叢集置於複製模式下。


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 ip sync
      

      寫入到主要容體時,Sun StorEdge Availability Suite 軟體將更新次要容體。

如何處理故障轉移或切換保護移轉的範例

本節說明了引發切換保護移轉的方式以及將應用程式傳輸到次要叢集的方式。在發生切換保護移轉或故障轉移之後,您必須更新 DNS 項目並配置應用程式以在次要容體中讀取和寫入。

如何引發切換保護移轉
  1. 將主要叢集置於記錄模式下。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    

    當寫入到磁碟上的資料容體時,將更新同一個磁碟上的點陣圖檔案。未進行複製。

  2. 確認主要叢集與次要叢集都處於記錄模式下,並且關閉了自動同步化功能。

    1. nodeA 上,執行此指令︰


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -P
      

      輸出結果應該如下:


      /dev/vx/rdsk/devicegroup/vol01 ->
      lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01
      autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag:
      devicegroup, state: logging
    2. nodeC 上,執行此指令︰


      nodeC# /usr/opt/SUNWesm/sbin/sndradm -P
      

      輸出結果應該如下:


      /dev/vx/rdsk/devicegroup/vol01 <-
      lhost-reprg-prim:/dev/vx/rdsk/devicegroup/vol01
      autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag:
      devicegroup, state: logging

    對於 nodeAnodeC,狀態應該為 logging,自動同步化的作用中狀態應該為 off

  3. 確認次要叢集已準備好接管主要叢集。


    nodeC# /usr/sbin/fsck -y /dev/vx/rdsk/devicegroup/vol01
    
  4. 切換保護移轉至次要叢集。


    nodeC# scswitch -Z -g nfs-rg
    nodeC# scswitch -Z -g nfs-rg -h nodeC
    
如何更新 DNS 項目

如需有關 DNS 如何將用戶端對映至叢集的圖例,請參閱圖 6–6

  1. 啟動 nsupdate 指令。

    如需相關資訊,請參閱 nsupdate(1M) 線上說明手冊。

  2. 移除用戶端機器與主要叢集上應用程式資源群組邏輯主機名稱之間的目前 DNS 對映。


    > update delete client-machine A
    > update delete IPaddress1.in-addr.arpa TTL PTR client machine
    
    client-machine

    為用戶端的完整名稱。例如 mymachine.mycompany.com

    IPaddress1

    為邏輯主機名稱 lhost-nfsrg-prim 的 IP 位址,以反向順序表示。

    TTL

    為持續時間,以秒為單位。典型值為 3600。

  3. 在用戶端機器與次要叢集上應用程式資源群組的邏輯主機名稱之間,建立新的 DNS 對映。


    > update add client-machine TTL A IPaddress2
    > update add IPaddress3.in-addr.arpa TTL PTR client-machine
    
    IPaddress2

    為邏輯主機名稱 lhost-nfsrg-sec 的 IP 位址,以正向順序表示。

    IPaddress3

    為邏輯主機名稱 lhost-nfsrg-sec 的 IP 位址,以反向順序表示。

如何配置應用程式以在次要容體中讀取和寫入
  1. 配置次要容體,使其掛載於 NFS 檔案系統的掛載點目錄上。


    client-machine# mount -o rw lhost-nfsrg-sec:/global/mountpoint /xxx
    

    掛載點是在如何為 NFS 應用程式配置主要叢集上的檔案系統步驟 1 中建立的。

  2. 確認次要叢集具有掛載點的寫入存取權。


    client-machine# touch /xxx/data.1
    client-machine# umount /xxx