Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)

配置範例

本節提供了有關如何透過 Sun StorEdge Availability Suite 3.1 軟體為 NFS 應用程式配置資料複製的逐步作業範例。

連接與安裝叢集

圖 6–7 闡明了配置範例中使用的叢集配置。 配置範例中的次要叢集包含一個節點,但可以使用其他叢集配置。

圖 6–7 叢集配置範例

圖闡明了配置範例中使用的叢集配置。

表 6–1 概括了配置範例需要的硬體與軟體。 必須先將作業環境、Sun Cluster 軟體以及容體管理程式軟體安裝在叢集節點上,然後再安裝 Sun StorEdge Availability Suite 3.1 軟體與修補程式。

表 6–1 需要的硬體與軟體

硬體或軟體 

需求 

節點硬體  

使用 Solaris 作業環境的所有伺服器都支援 Sun StorEdge Availability Suite 3.1 軟體。  

如需有關要使用之硬體的資訊,請參閱Sun Cluster 3.x Hardware Administration Manual

磁碟空間 

大約 11 Mb。 

作業環境 

Sun Cluster 軟體支援的 Solaris 8 或 Solaris 9 版本。 

所有節點必須使用相同版本的作業環境。 

如需有關安裝的資訊,請參閱安裝軟體

Sun Cluster 軟體 

Sun Cluster 3.1 4/04 軟體。  

如需有關安裝的資訊,請參閱第 2章, 安裝和配置 Sun Cluster 軟體如何在單一節點叢集上安裝 Sun Cluster 軟體

容體管理程式軟體 

Solstice DiskSuite/Solaris Volume Manager 或 VERITAS Volume Manager (VxVM)。 

所有節點必須使用相同版本的容體管理程式軟體。 

有關安裝的資訊在安裝和配置 Solstice DiskSuite/Solaris Volume Manager 軟體 SPARC: 安裝與配置 VxVM 軟體 中。

Sun StorEdge Availability Suite 3.1 軟體 

如需有關如何安裝軟體的資訊,請參閱Sun StorEdge Availability Suite 3.1 Point-in-Time Copy Software Installation GuideSun StorEdge Availability Suite 3.1 Remote Mirror Software Installation Guide

Sun StorEdge Availability Suite 3.1 軟體修補程式 

如需有關最新修補程式的資訊,請參閱 http://sunsolve.sun.com

如何配置裝置群組與資源群組的範例

本章說明了為 NFS 應用程式配置磁碟裝置群組與資源群組的方式。 下列表格列示了為配置範例建立的群組與資源的名稱。

表 6–2 配置範例中群組與資源的摘要

群組或資源 

名稱 

說明 

磁碟裝置群組 

devicegroup

磁碟裝置群組。 

複製資源群組與資源 

devicegroup-stor-rg

複製資源群組。 

lhost-reprg-primlhost-reprg-sec

主要叢集與次要叢集上的複製資源群組的邏輯主機名稱。 

devicegroup-stor

複製資源群組的 HAStoragePlus 資源。  

應用程式資源群組與資源 

nfs-rg

應用程式資源群組。 

lhost-nfsrg-primlhost-nfsrg-sec

主要叢集與次要叢集上的應用程式資源群組的邏輯主機名稱。 

nfs-dg-rs

應用程式的 HAStoragePlus 資源。 

nfs-rs

NFS 資源。 

devicegroup-stor-rg 之外,群組與資源的名稱是可以依需要進行變更的範例名稱。 複製資源群組的名稱格式必須為 devicegroup-stor-rg

配置磁碟裝置群組

本節說明了在主要叢集與次要叢集上配置磁碟裝置群組的方式。 此配置範例使用 VxVM 軟體。 如需有關 Solstice DiskSuite/Solaris Volume Manager 軟體的資訊,請參閱第 3章, 安裝和配置 Solstice DiskSuite/Solaris Volume Manager 軟體

下圖闡明了在磁碟裝置群組中建立的容體。

圖 6–8 磁碟裝置群組的容體

圖顯示了在磁碟裝置群組中建立的容體。


註解 –

本節中定義的容體不得包含磁碟標籤私有區域,如磁柱 0。VxVM 軟體自動管理此限制。


如何在主要叢集上配置磁碟裝置群組
  1. 建立包含四個容體 (容體 1 至容體 4) 的磁碟群組。

    如需有關透過 VxVM 軟體配置磁碟群組的資訊,請參閱第 4章, SPARC: 安裝與配置 VERITAS Volume Manager

  2. 以超級使用者身份存取 nodeA

    nodeA 是主要叢集的第一個節點。 如需有關哪個節點是 nodeA 的提示,請參閱圖 6–7

  3. 配置磁碟群組以建立磁碟裝置群組。


    nodeA# /usr/cluster/bin/scconf -a -D type=vxvm,name=devicegroup \
    ,nodelist=nodeA:nodeB
    

    磁碟裝置群組稱為 devicegroup

  4. 啟動磁碟裝置群組。


    nodeA# /usr/cluster/bin/scswitch -z -D devicegroup -h nodeA
    
  5. 使磁碟裝置群組與 Sun Cluster 軟體同步。


    nodeA# /usr/cluster/bin/scconf -c -D name=devicegroup,sync
    
  6. 為磁碟裝置群組建立檔案系統。


    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol01 < /dev/null
    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol02 < /dev/null
    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol03 < /dev/null
    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol04 < /dev/null
    
  7. 透過將下列實體加入 nodeAnodeB 上的 /.rhosts 檔,在主要叢集與次要叢集的節點之間啟用遠端存取。


    nodeC +
    + root
如何在次要叢集上配置磁碟裝置群組
  1. 請遵循如何在主要叢集上配置磁碟裝置群組中的程序執行,但下列情況除外︰

    • nodeC 替代 nodeA

    • 不使用 nodeB

    • 步驟 3 中,僅在節點清單中包含 nodeC。 例如:


      nodeC# /usr/cluster/bin/scconf -a -D type=vxvm,name=devicegroup \
      ,nodelist=nodeC
      
    • 步驟 7 中,僅將下列實體加入 nodeC 上的 /.rhosts 檔︰


      nodeA +
      nodeB +
      + root

為 NFS 應用程式配置檔案系統

本節說明了為 NFS 應用程式配置檔案系統的方式。

如何為 NFS 應用程式配置主要叢集上的檔案系統
  1. nodeAnodeB 上,建立 NFS 檔案系統的掛載點目錄。

    例如:


    nodeA# mkdir /global/mountpoint
    
  2. nodeAnodeB 上,配置要在掛載點上自動掛載的主容體。

    nodeAnodeB 上的 /etc/vfstab 檔中,加入或替代下列文字。 文字必須在單一行上。


    /dev/vx/dsk/devicegroup/vol01 /dev/vx/rdsk/devicegroup/vol01 \
    /global/mountpoint ufs 3 no global,logging

    如需有關磁碟裝置群組中所用容體名稱與容體編號的提示,請參閱圖 6–8

  3. nodeA 上,為 Sun StorEdge Availability Suite 3.1 軟體使用的檔案系統資訊建立容體。


    nodeA# /usr/sbin/vxassist -g devicegroup make vol05 120m disk1
    

    容體 5 包含 Sun StorEdge Availability Suite 3.1 軟體使用的檔案系統資訊。

  4. nodeA 上,使裝置群組與 Sun Cluster 軟體重新同步。


    nodeA# /usr/cluster/bin/scconf -c -D name=devicegroup,sync
    
  5. nodeA 上,為容體 5 建立檔案系統。


    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol05
    
  6. nodeAnodeB 上,為容體 5 建立掛載點。

    例如:


    nodeA# mkdir /global/etc
    
  7. nodeAnodeB 上,配置要在掛載點上自動掛載的容體 5。

    nodeAnodeB 上的 /etc/vfstab 檔中,加入或替代下列文字。 文字必須在單一行上。


    /dev/vx/dsk/devicegroup/vol05 /dev/vx/rdsk/devicegroup/vol05 \
    /global/etc ufs 3 yes global,logging
  8. nodeA 上掛載容體 5。


    nodeA# mount /global/etc
    
  9. 使遠端系統可以存取容體 5。

    1. nodeA 上建立稱為 /global/etc/SUNW.nfs 的目錄。


      nodeA# mkdir -p /global/etc/SUNW.nfs
      
    2. nodeA 上建立檔案 /global/etc/SUNW.nfs/dfstab.nfs-rs


      nodeA# touch /global/etc/SUNW.nfs/dfstab.nfs-rs
      
    3. 將以下行加入 nodeA 上的 /global/etc/SUNW.nfs/dfstab.nfs-rs 檔案︰


      share -F nfs -o rw -d "HA NFS" /global/mountpoint
      
如何為 NFS 應用程式配置次要叢集上的檔案系統。

    請重複執行如何為 NFS 應用程式配置主要叢集上的檔案系統中的程序,但下列情況除外︰

    • nodeC 替代 nodeA

    • 不使用 nodeB

建立複製資源群組

本節說明了在主要叢集與次要叢集上建立複製資源群組的方式。

如何在主要叢集上建立複製資源群組
  1. 以超級使用者身份存取 nodeA

  2. SUNW.HAStoragePlus 註冊為資源類型。


    nodeA# /usr/cluster/bin/scrgadm -a -t SUNW.HAStoragePlus
    
  3. 為磁碟裝置群組建立複製資源群組。


    nodeA# /usr/cluster/bin/scrgadm -a -g devicegroup-stor-rg -h nodeA,nodeB
    
    devicegroup

    磁碟裝置群組的名稱。

    devicegroup-stor-rg

    複製資源群組的名稱。

    -h nodeA, nodeB

    指定可以主控複製資源群組的叢集節點。

  4. SUNW.HAStoragePlus 資源加入至複製資源群組。


    nodeA# /usr/cluster/bin/scrgadm -a -j devicegroup-stor \
    -g devicegroup-stor-rg -t SUNW.HAStoragePlus \
    -x GlobalDevicePaths=devicegroup \
    -x AffinityOn=True
    
    devicegroup-stor

    複製資源群組的 HAStoragePlus 資源。

    -x GlobalDevicePaths=

    指定 Sun StorEdge Availability Suite 3.1 軟體依賴的延伸屬性。

    -x AffinityOn=True

    指定 SUNW.HAStoragePlus 資源必須為由 -x GlobalDevicePaths= 定義的整體裝置與叢集檔案系統執行親合性切換保護移轉。 因此,當複製資源群組發生故障轉移或切換保護移轉時,將對關聯的裝置群組執行切換保護移轉。

    如需有關這些延伸屬性的詳細資訊,請參閱 SUNW.HAStoragePlus(5) 線上說明手冊。

  5. 將邏輯主機名稱資源加入至複製資源群組。


    nodeA# /usr/cluster/bin/scrgadm -a -L \
    -j lhost-reprg-prim -g devicegroup-stor-rg -l lhost-reprg-prim
    

    其中,lhost-reprg-prim 是主要叢集上複製資源群組的邏輯主機名稱。

  6. 啟用資源、管理資源群組,並使資源群組上線。


    nodeA# /usr/cluster/bin/scswitch -Z -g devicegroup-stor-rg
    nodeA# /usr/cluster/bin/scswitch -z -g devicegroup-stor-rg -h nodeA
    
  7. 驗證資源群組是否處於線上狀態。


    nodeA# /usr/cluster/bin/scstat -g
    

    檢查資源群組狀態欄位,以確認 nodeAnodeB 上的複製資源群組處於線上狀態。

如何在次要叢集上建立複製資源群組

    請重複執行如何在主要叢集上建立複製資源群組中的程序,但下列情況除外︰

    • nodeC 替代 nodeA

    • 不使用 nodeB

    • lhost-reprg-sec 替代對 lhost-reprg-prim 的參考。

建立應用程式資源群組

本節說明了為 NFS 應用程式建立應用程式資源群組的方式。 本節中的程序專用於此應用程式。 這些程序不可用於其他類型的應用程式。

如何在主要叢集上建立應用程式資源群組
  1. 以超級使用者身份存取 nodeA

  2. SUNW.nfs 註冊為資源類型。


    nodeA# scrgadm -a -t SUNW.nfs
    
  3. 如果尚未將 SUNW.HAStoragePlus 註冊為資源類型,請進行註冊。


    nodeA# scrgadm -a -t SUNW.HAStoragePlus
    
  4. devicegroup 建立應用程式資源群組。


    nodeA# scrgadm -a -g nfs-rg \
    -y Pathprefix=/global/etc \
    -y Auto_start_on_new_cluster=False \
    -y RG_dependencies=devicegroup-stor-rg
    
    nfs-rg

    為應用程式資源群組的名稱。

    Pathprefix=/global/etc

    指定群組中的資源可以寫入管理檔案的目錄。

    Auto_start_on_new_cluster=False

    指定應用程式資源群組並非自動啟動。

    RG_dependencies=devicegroup-stor-rg

    指定應用程式資源群組所依賴的資源群組。 在此範例中,應用程式資源群組依賴複製資源群組。

    如果將應用程式資源群組切換保護移轉至新的主要節點,將自動切換保護移轉複製資源群組。 但是,如果將複製資源群組切換保護移轉至新的主要節點,則必須手動切換保護移轉應用程式資源群組。

  5. SUNW.HAStoragePlus 資源加入至應用程式資源群組。


    nodeA# scrgadm -a -j nfs-dg-rs -g nfs-rg \
    -t SUNW.HAStoragePlus \
    -x FileSystemMountPoints=/global/mountpoint \
    -x AffinityOn=True
    
    nfs-dg-rs

    為 NFS 應用程式的 HAStoragePlus 資源的名稱。

    -x FileSystemMountPoints=/global/

    指定檔案系統的掛載點為全域掛載點。

    -t SUNW.HAStoragePlus

    指定資源的類型為 SUNW.HAStoragePlus

    -x AffinityOn=True

    指定應用程式資源必須為由 -x GlobalDevicePaths= 定義的整體裝置與叢集檔案系統執行親合性切換保護移轉。 因此,當應用程式資源群組發生故障轉移或切換保護移轉時,將對關聯的裝置群組執行切換保護移轉。

    如需有關這些延伸屬性的詳細資訊,請參閱 SUNW.HAStoragePlus(5) 線上說明手冊。

  6. 將邏輯主機名稱資源加入至應用程式資源群組。


    nodeA# /usr/cluster/bin/scrgadm -a -L -j lhost-nfsrg-prim -g nfs-rg \
    -l  lhost-nfsrg-prim
    

    其中,lhost-nfsrg-prim 是主要叢集上應用程式資源群組的邏輯主機名稱。

  7. 啟用資源、管理應用程式資源群組,並使應用程式資源群組上線。

    1. 使 NFS 應用程式的 HAStoragePlus 資源上線。


      nodeA# /usr/cluster/bin/scrgadm -a -g nfs-rg \
      -j nfs-rs -t SUNW.nfs -y Resource_dependencies=nfs-dg-rs
      
    2. 使應用程式資源群組在 nodeA 上連線。


      nodeA# /usr/cluster/bin/scswitch -Z -g nfs-rg
      nodeA# /usr/cluster/bin/scswitch -z -g nfs-rg -h nodeA
      
  8. 驗證應用程式資源群組是否處於線上狀態。


    nodeA# /usr/cluster/bin/scstat -g
    

    檢查資源群組狀態欄位,以確定應用程式資源群組在 nodeAnodeB 上是否處於線上狀態。

如何在次要叢集上建立應用程式資源群組
  1. 如何在主要叢集上建立應用程式資源群組步驟 1步驟 6 的說明建立應用程式資源群組,但下列情況除外︰

    • nodeC 替代 nodeA

    • 忽略對 nodeB 的參考。

    • lhost-nfsrg-sec 替代對 lhost-nfsrg-prim 的參考。

  2. 確定應用程式資源群組未在 nodeC 上連線。


    nodeC# /usr/cluster/bin/scswitch -n -j nfs-rs
    nodeC# /usr/cluster/bin/scswitch -n -j nfs-dg-rs
    nodeC# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-sec
    nodeC# /usr/cluster/bin/scswitch -z -g nfs-rg -h ""
    

    在重新開機後,此資源群組仍然處於離線狀態,這是因為 Auto_start_on_new_cluster=False

  3. 如果整體容體掛載於主要叢集上,則從次要叢集上卸載該整體容體。


    nodeC# umount /global/mountpoint
    

    如果容體掛載於次要叢集上,同步化將失敗。

如何啟用資料複製的範例

本節說明了為配置範例啟用資料複製的方式。 本節使用 Sun StorEdge Availability Suite 3.1 軟體指令 sndradmiiadm。 如需有關這些指令的詳細資訊,請參閱Sun Cluster 3.0 and Sun StorEdge Software Integration Guide

如何在主要叢集上啟用複製
  1. 以超級使用者身份存取 nodeA

  2. 清除所有異動。


    nodeA# /usr/sbin/lockfs -a -f
    
  3. 確認邏輯主機名稱 lhost-reprg-primlhost-reprg-sec 均處於線上狀態。


    nodeA# /usr/cluster/bin/scstat -g
    

    檢查資源群組的狀態欄位。

  4. 啟用從主要叢集到次要叢集的遠端鏡像複製。

    此步驟會啟用從主要叢集主容體到次要叢集主容體的複製。 另外,此步驟還啟用對容體 4 上的遠端鏡像點陣圖的複製。

    • 如果主要叢集與次要叢集未同步,請執行此指令︰


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 ip sync 
      
    • 如果主要叢集與次要叢集同步,請執行此指令︰


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -E lhost-reprg-prim \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 ip sync
      
  5. 啟用自動同步化。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -a on lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    

    此步驟啟用自動同步化。 如果將自動同步化的作用中狀態設定為 on,則當系統重新開機或發生故障時將重新同步化容體集。

  6. 驗證叢集是否處於記錄模式下。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -P
    

    輸出結果應該如下:


    /dev/vx/rdsk/devicegroup/vol01 ->
    lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01
    autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
    devicegroup, state: logging

    在記錄模式下,狀態為 logging,自動同步化的作用中狀態為 off。 當寫入到磁碟上的資料容體時,將更新同一個磁碟上的點陣圖檔案。

  7. 啟用即時快照。


    nodeA# /usr/opt/SUNWesm/sbin/iiadm -e ind \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol02 \
    /dev/vx/rdsk/devicegroup/vol03
    nodeA# /usr/opt/SUNWesm/sbin/iiadm -w \
    /dev/vx/rdsk/devicegroup/vol02
    

    此步驟使主要磁碟上的主容體複製到同一個磁碟上的陰影容體中。 在此範例中,主容體為容體 1,陰影容體為容體 2,即時點陣圖容體為容體 3。

  8. 將即時快照附加至遠端鏡像集。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -I a \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol02 \
    /dev/vx/rdsk/devicegroup/vol03
    

    此步驟使即時快照與遠端鏡像容體集關聯起來。 Sun StorEdge Availability Suite 3.1 軟體確保執行即時快照後才會發生遠端鏡像複製。

如何在次要叢集上啟用複製
  1. 以超級使用者身份存取 nodeC

  2. 清除所有異動。


    nodeC# /usr/sbin/lockfs -a -f
    
  3. 啟用從主要叢集到次要叢集的遠端鏡像複製。


    nodeC# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    

    主要叢集偵測到次要叢集存在並開始同步化。 請參閱系統日誌檔 /var/opt/SUNWesm/ds.log,以取得有關叢集狀態的資訊。

  4. 啟用獨立的即時快照。


    nodeC# /usr/opt/SUNWesm/sbin/iiadm -e ind \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol02 \
    /dev/vx/rdsk/devicegroup/vol03
    nodeC# /usr/opt/SUNWesm/sbin/iiadm -w \
    /dev/vx/rdsk/devicegroup/vol02
    
  5. 將即時快照附加至遠端鏡像集。


    nodeC# /usr/opt/SUNWesm/sbin/sndradm -I a \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol02 \
    /dev/vx/rdsk/devicegroup/vol03
    

如何執行資料複製的範例

本節說明了為配置範例執行資料複製的方式。 本節使用 Sun StorEdge Availability Suite 3.1 軟體指令 sndradmiiadm。 如需有關這些指令的詳細資訊,請參閱Sun Cluster 3.0 and Sun StorEdge Software Integration Guide

如何執行遠端鏡像複製

在此程序中,將主要磁碟的主容體複製到次要磁碟的主容體。 主容體為容體 1,遠端鏡像點陣圖容體為容體 4。

  1. 以超級使用者身份存取 nodeA

  2. 驗證叢集是否處於記錄模式下。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -P
    

    輸出結果應該如下:


    /dev/vx/rdsk/devicegroup/vol01 ->
    lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01
    autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
    devicegroup, state: logging

    在記錄模式下,狀態為 logging,自動同步化的作用中狀態為 off。 當寫入到磁碟上的資料容體時,將更新同一個磁碟上的點陣圖檔案。

  3. 清除所有異動。


    nodeA# /usr/sbin/lockfs -a -f
    
  4. nodeC 上,重複執行步驟 1步驟 3

  5. nodeA 的主容體複製到 nodeC 的主容體。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -m lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    
  6. 等待直至複製完成並且容體已同步化。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -w lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    
  7. 確認叢集處於複製模式下。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -P
    

    輸出結果應該如下:


    /dev/vx/rdsk/devicegroup/vol01 ->
    lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01
    autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
    devicegroup, state: replicating

    在複製模式下,狀態為 replicating,自動同步化的作用中狀態為 on。 寫入到主要容體時,Sun StorEdge Availability Suite 3.1 軟體將更新次要容體。

如何執行即時快照

在此程序中,即時快照用於使主要叢集的陰影容體與主要叢集的主容體同步。 主容體為容體 1,陰影容體為容體 2。

  1. 以超級使用者身份存取 nodeA

  2. 停止 nodeA 上執行的應用程式。


    nodeA# /usr/cluster/bin/scswitch -n -j nfs-rs
    
  3. 將主要叢集置於記錄模式下。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    

    當寫入到磁碟上的資料容體時,將更新同一個磁碟上的點陣圖檔案。 未進行複製。

  4. 使主要叢集的陰影容體與主要叢集的主容體同步。


    nodeA# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devicegroup/vol02
    nodeA# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devicegroup/vol02
    
  5. 使次要叢集的陰影容體與次要叢集的主容體同步。


    nodeC# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devicegroup/vol02
    nodeC# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devicegroup/vol02
    
  6. nodeA 上重新啟動應用程式。


    nodeA# /usr/cluster/bin/scswitch -e -j nfs-rs
    
  7. 重新同步化次要容體與主要容體。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    

如何驗證已正確配置複製的範例

本節說明了在配置範例中確認複製配置的方式。

如何驗證已正確配置複製
  1. 驗證主要叢集處於複製模式下,並且開啟了自動同步化功能。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -P
    

    輸出結果應該如下:


    /dev/vx/rdsk/devicegroup/vol01 ->
    lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01
    autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
    devicegroup, state: replicating

    在複製模式下,狀態為 replicating,自動同步化的作用中狀態為 on。 寫入到主要容體時,Sun StorEdge Availability Suite 3.1 軟體將更新次要容體。

    如果主要叢集不在複製模式下,請將其置於複製模式下,如下所示︰


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    
  2. 在用戶端機器上建立一個目錄。

    1. 以超級使用者身份登入到用戶端機器。

      將看到如下提示︰


      client-machine#
    2. 在該用戶端機器上建立一個目錄。


      client-machine# mkdir /dir
      
  3. 將該目錄掛載到主要叢集上的應用程式中,然後顯示掛載的目錄。

    1. 將該目錄掛載到主要叢集上的應用程式中。


      client-machine# mount -o rw lhost-nfsrg-prim:/global/mountpoint /dir
      
    2. 顯示掛載的目錄。


      client-machine# ls /dir
      
  4. 將該目錄掛載到次要叢集上的應用程式中,然後顯示掛載的目錄。

    1. 卸載主要叢集上應用程式的目錄。


      client-machine# umount /dir
      
    2. 使應用程式資源群組在主要叢集上離線。


      nodeA# /usr/cluster/bin/scswitch -n -j nfs-rs
      nodeA# /usr/cluster/bin/scswitch -n -j nfs-dg-rs
      nodeA# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-prim
      nodeA# /usr/cluster/bin/scswitch -z -g nfs-rg -h ""
      
    3. 將主要叢集置於記錄模式下。


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 ip sync
      

      當寫入到磁碟上的資料容體時,將更新同一個磁碟上的點陣圖檔案。 未進行複製。

    4. 使應用程式資源群組在次要叢集上連線。


      nodeC# /usr/cluster/bin/scswitch -Z -g nfs-rg
      
    5. 以超級使用者身份存取用戶端機器。

      將看到如下提示︰


      client-machine#
    6. 將在步驟 2 中建立的目錄掛載到次要叢集的應用程式中。


      client-machine# mount -o rw lhost-nfsrg-sec:/global/mountpoint /dir
      
    7. 顯示掛載的目錄。


      client-machine# ls /dir
      
  5. 請確定步驟 3步驟 4 中顯示的目錄相同。

  6. 將主要叢集上的應用程式傳回到掛載的目錄。

    1. 使應用程式資源群組在次要叢集上離線。


      nodeC# /usr/cluster/bin/scswitch -n -j nfs-rs
      nodeC# /usr/cluster/bin/scswitch -n -j nfs-dg-rs
      nodeC# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-sec
      nodeC# /usr/cluster/bin/scswitch -z -g nfs-rg -h ""
      
    2. 請確定已從次要叢集上卸載整體容體。


      nodeC# umount /global/mountpoint
      
    3. 使應用程式資源群組在主要叢集上連線。


      nodeA# /usr/cluster/bin/scswitch -Z -g nfs-rg
      
    4. 將主要叢集置於複製模式下。


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 ip sync
      

      寫入到主要容體時,Sun StorEdge Availability Suite 3.1 軟體將更新次要容體。

如何處理故障轉移或切換保護移轉的範例

本節說明了引發切換保護移轉的方式以及將應用程式傳輸到次要叢集的方式。 在發生切換保護移轉或故障轉移之後,您必須更新 DNS 項目並配置應用程式以在次要容體中讀取和寫入。

如何引發切換保護移轉
  1. 將主要叢集置於記錄模式下。


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    

    當寫入到磁碟上的資料容體時,將更新同一個磁碟上的點陣圖檔案。 未進行複製。

  2. 確認主要叢集與次要叢集都處於記錄模式下,並且關閉了自動同步化功能。

    1. nodeA 上,執行此指令︰


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -P
      

      輸出結果應該如下:


      /dev/vx/rdsk/devicegroup/vol01 ->
      lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01
      autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag:
      devicegroup, state: logging
    2. nodeC 上,執行此指令︰


      nodeC# /usr/opt/SUNWesm/sbin/sndradm -P
      

      輸出結果應該如下:


      /dev/vx/rdsk/devicegroup/vol01 <-
      lhost-reprg-prim:/dev/vx/rdsk/devicegroup/vol01
      autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag:
      devicegroup, state: logging

    對於 nodeAnodeC,狀態應該為 logging,自動同步化的作用中狀態應該為 off

  3. 確認次要叢集已準備好接管主要叢集。


    nodeC# /usr/sbin/fsck -y /dev/vx/rdsk/devicegroup/vol01
    
  4. 切換保護移轉至次要叢集。


    nodeC# scswitch -Z -g nfs-rg
    nodeC# scswitch -Z -g nfs-rg -h nodeC
    
如何更新 DNS 項目

如需有關 DNS 如何將用戶端對映至叢集的圖例,請參閱圖 6–6

  1. 啟動 nsupdate 指令。

    如需相關資訊,請參閱 nsupdate(1M) 線上說明手冊。

  2. 移除用戶端機器與主要叢集上應用程式資源群組邏輯主機名稱之間的目前 DNS 對映。


    > update delete client-machine A
    > update delete IPaddress1.in-addr.arpa TTL PTR client machine
    
    client-machine

    為用戶端的完整名稱。 例如 mymachine.mycompany.com

    IPaddress1

    為邏輯主機名稱 lhost-nfsrg-prim 的 IP 位址,以反向順序表示。

    TTL

    為持續時間,以秒為單位。 典型值為 3600。

  3. 在用戶端機器與次要叢集上應用程式資源群組的邏輯主機名稱之間,建立新的 DNS 對映。


    > update add client-machine TTL A IPaddress2
    > update add IPaddress3.in-addr.arpa TTL PTR client-machine
    
    IPaddress2

    為邏輯主機名稱 lhost-nfsrg-sec 的 IP 位址,以正向順序表示。

    IPaddress3

    為邏輯主機名稱 lhost-nfsrg-sec 的 IP 位址,以反向順序表示。

如何配置應用程式以在次要容體中讀取和寫入
  1. 配置次要容體,使其掛載於 NFS 檔案系統的掛載點目錄上。


    client-machine# mount -o rw lhost-nfsrg-sec:/global/mountpoint /xxx
    

    掛載點是在如何為 NFS 應用程式配置主要叢集上的檔案系統步驟 1 中建立的。

  2. 確認次要叢集具有掛載點的寫入存取權。


    client-machine# touch /xxx/data.1
    client-machine# umount /xxx