Sun Cluster 軟體安裝指南(適用於 Solaris 作業系統)

如何配置裝置群組與資源群組的範例

本小節說明如何為 NFS 應用程式配置磁碟裝置群組與資源群組。如需附加資訊,請參閱配置複製資源群組配置應用程式資源群組

本小節包含以下程序:

下表列出了為配置範例建立的群組與資源的名稱。

表 6–3 配置範例中群組與資源的摘要

群組或資源 

名稱 

描述 

磁碟裝置群組 

devicegroup

磁碟裝置群組 

複製資源群組與資源 

devicegroup-stor-rg

複製資源群組 

lhost-reprg-primlhost-reprg-sec

主要叢集與次要叢集上的複製資源群組之邏輯主機名稱 

devicegroup-stor

複製資源群組的 HAStoragePlus 資源 

應用程式資源群組與資源 

nfs-rg

應用程式資源群組 

lhost-nfsrg-primlhost-nfsrg-sec

主要叢集與次要叢集上的應用程式資源群組之邏輯主機名稱 

nfs-dg-rs

應用程式的 HAStoragePlus 資源 

nfs-rs

NFS 資源 

devicegroup-stor-rg 之外,群組與資源的名稱是可以依需要進行變更的範例名稱。複製資源群組名稱的格式必須為 devicegroup-stor-rg

此配置範例使用 VxVM 軟體。如需有關 Solstice DiskSuite 或 Solaris Volume Manager 軟體的資訊,請參閱第 3 章, 安裝和配置 Solstice DiskSuite 或 Solaris Volume Manager 軟體

下圖說明在磁碟裝置群組中建立的容體。

圖 6–8 磁碟裝置群組的容體

圖顯示了在磁碟裝置群組中建立的容體。


備註 –

本程序中定義的容體不得包含磁碟標籤私有區域,例如磁柱 0。VxVM 軟體會自動管理此限制。


Procedure如何在主要叢集上配置磁碟裝置群組

開始之前

請確定您已完成以下作業:

步驟
  1. 以超級使用者身份存取 nodeA

    nodeA 是主要叢集的第一個節點。如需有關哪個節點為 nodeA 的提示,請參閱圖 6–7

  2. nodeA 上建立一個包含四個容體的磁碟群組:容體 1 (vol01) 至容體 4 (vol04)。

    如需有關使用 VxVM 軟體配置磁碟群組的資訊,請參閱第 4 章, SPARC: 安裝與配置 VERITAS Volume Manager

  3. 配置磁碟群組以建立磁碟裝置群組。


    nodeA# /usr/cluster/bin/scconf -a \
    -D type=vxvm,name=devicegroup,nodelist=nodeA:nodeB
    

    磁碟裝置群組稱為 devicegroup

  4. 為磁碟裝置群組建立檔案系統。


    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol01 < /dev/null
    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol02 < /dev/null
    

    vol03vol04 不需要檔案系統,它們被改用做原始容體。

接下來的步驟

請移至如何在次要叢集上配置磁碟裝置群組

Procedure如何在次要叢集上配置磁碟裝置群組

開始之前

請確定您已完成了如何在主要叢集上配置磁碟裝置群組中的步驟。

步驟
  1. 以超級使用者身份存取 nodeC

  2. nodeC 上建立一個包含四個容體的磁碟群組:容體 1 (vol01) 至容體 4 (vol04)。

  3. 配置磁碟群組以建立磁碟裝置群組。


    nodeC# /usr/cluster/bin/scconf -a \
    -D type=vxvm,name=devicegroup,nodelist=nodeC
    

    磁碟裝置群組稱為 devicegroup

  4. 為磁碟裝置群組建立檔案系統。


    nodeC# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol01 < /dev/null
    nodeC# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol02 < /dev/null
    

    vol03vol04 不需要檔案系統,它們被改用做原始容體。

接下來的步驟

請移至如何為 NFS 應用程式配置主要叢集上的檔案系統

Procedure如何為 NFS 應用程式配置主要叢集上的檔案系統

開始之前

請確定您已完成了如何在次要叢集上配置磁碟裝置群組中的步驟。

步驟
  1. nodeAnodeB 上,建立 NFS 檔案系統的掛載點目錄。

    例如:


    nodeA# mkdir /global/mountpoint
    
  2. nodeAnodeB 上,配置要在掛載點上自動掛載的主容體。

    nodeAnodeB 上的 /etc/vfstab 檔中,加入或替代下列文字。文字必須在單一行上。


    /dev/vx/dsk/devicegroup/vol01 /dev/vx/rdsk/devicegroup/vol01 \
    /global/mountpoint ufs 3 no global,logging

    如需有關磁碟裝置群組中所使用的容體名稱與容體編號的提示,請參閱圖 6–8

  3. nodeA 上,為 Sun Cluster HA for NFS 資料服務使用的檔案系統資訊建立容體。


    nodeA# /usr/sbin/vxassist -g devicegroup make vol05 120m disk1
    

    容體 5 (vol05) 包含 Sun Cluster HA for NFS 資料服務所使用的檔案系統資訊。

  4. nodeA 上,使裝置群組與 Sun Cluster 軟體重新同步。


    nodeA# /usr/cluster/bin/scconf -c -D name=devicegroup,sync
    
  5. nodeA 上,為 vol05 建立檔案系統。


    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol05
    
  6. nodeAnodeB 上,為 vol05 建立掛載點。

    例如:


    nodeA# mkdir /global/etc
    
  7. nodeAnodeB 上,將 vol05 配置為自動掛載在掛載點上。

    nodeAnodeB 上的 /etc/vfstab 檔中,加入或替代下列文字。文字必須在單一行上。


    /dev/vx/dsk/devicegroup/vol05 /dev/vx/rdsk/devicegroup/vol05 \
    /global/etc ufs 3 yes global,logging
  8. vol05 掛載在 nodeA 上。


    nodeA# mount /global/etc
    
  9. 讓遠端系統可存取 vol05

    1. nodeA 上建立稱為 /global/etc/SUNW.nfs 的目錄。


      nodeA# mkdir -p /global/etc/SUNW.nfs
      
    2. nodeA 上建立檔案 /global/etc/SUNW.nfs/dfstab.nfs-rs


      nodeA# touch /global/etc/SUNW.nfs/dfstab.nfs-rs
      
    3. 將下行增加至 nodeA 上的 /global/etc/SUNW.nfs/dfstab.nfs-rs 檔案:


      share -F nfs -o rw -d "HA NFS" /global/mountpoint
      
接下來的步驟

請移至如何為 NFS 應用程式配置次要叢集上的檔案系統。

Procedure如何為 NFS 應用程式配置次要叢集上的檔案系統。

開始之前

請確定您已完成了如何為 NFS 應用程式配置主要叢集上的檔案系統中的步驟。

步驟
  1. nodeC 上,為 NFS 檔案系統建立掛載點目錄。

    例如:


    nodeC# mkdir /global/mountpoint
    
  2. nodeC 上,配置要自動掛載在掛載點上的主容體。

    nodeC 上的 /etc/vfstab 檔案中,增加或替代以下文字。文字必須在單一行上。


    /dev/vx/dsk/devicegroup/vol01 /dev/vx/rdsk/devicegroup/vol01 \
    /global/mountpoint ufs 3 no global,logging
  3. nodeC 上,為 Sun Cluster HA for NFS 資料服務所使用的檔案系統資訊建立容體。


    nodeC# /usr/sbin/vxassist -g devicegroup make vol05 120m disk1
    

    容體 5 (vol05) 包含 Sun Cluster HA for NFS 資料服務所使用的檔案系統資訊。

  4. nodeC 上,重新讓裝置群組與 Sun Cluster 軟體同步化。


    nodeC# /usr/cluster/bin/scconf -c -D name=devicegroup,sync
    
  5. nodeC 上,為 vol05 建立檔案系統。


    nodeC# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol05
    
  6. nodeC 上,為 vol05 建立掛載點。

    例如:


    nodeC# mkdir /global/etc
    
  7. nodeC 上,將 vol05 配置為在掛載點上進行自動掛載。

    nodeC 上的 /etc/vfstab 檔案中,增加或替代以下文字。文字必須在單一行上。


    /dev/vx/dsk/devicegroup/vol05 /dev/vx/rdsk/devicegroup/vol05 \
    /global/etc ufs 3 yes global,logging
  8. vol05 掛載在 nodeC 上。


    nodeC# mount /global/etc
    
  9. 可供遠端系統存取 vol05

    1. nodeC 上,建立名為 /global/etc/SUNW.nfs 的目錄。


      nodeC# mkdir -p /global/etc/SUNW.nfs
      
    2. nodeC 上,建立檔案 /global/etc/SUNW.nfs/dfstab.nfs-rs


      nodeC# touch /global/etc/SUNW.nfs/dfstab.nfs-rs
      
    3. 將下行增加至 nodeC 上的 /global/etc/SUNW.nfs/dfstab.nfs-rs 檔案:


      share -F nfs -o rw -d "HA NFS" /global/mountpoint
      
接下來的步驟

請移至如何在主要叢集上建立複製資源群組

Procedure如何在主要叢集上建立複製資源群組

開始之前

請確定您已完成了如何為 NFS 應用程式配置次要叢集上的檔案系統。中的步驟。

步驟
  1. 以超級使用者身份存取 nodeA

  2. SUNW.HAStoragePlus 註冊為資源類型。


    nodeA# /usr/cluster/bin/scrgadm -a -t SUNW.HAStoragePlus
    
  3. 為磁碟裝置群組建立複製資源群組。


    nodeA# /usr/cluster/bin/scrgadm -a -g devicegroup-stor-rg -h nodeA,nodeB
    
    devicegroup

    磁碟裝置群組的名稱

    devicegroup-stor-rg

    複製資源群組的名稱

    -h nodeA, nodeB

    指定可主控複製資源群組的叢集節點

  4. SUNW.HAStoragePlus 資源增加至複製資源群組。


    nodeA# /usr/cluster/bin/scrgadm -a -j devicegroup-stor \
    -g devicegroup-stor-rg -t SUNW.HAStoragePlus \
    -x GlobalDevicePaths=devicegroup \
    -x AffinityOn=True
    
    devicegroup-stor

    複製資源群組的 HAStoragePlus 資源。

    -x GlobalDevicePaths=

    指定 Sun StorEdge Availability Suite 軟體所依賴的延伸特性。

    -x AffinityOn=True

    指定 SUNW.HAStoragePlus 資源必須為由 -x GlobalDevicePaths= 定義的整體裝置與叢集檔案系統執行親合性切換保護移轉。因此,當複製資源群組發生故障轉移或切換保護移轉時,將對關聯的裝置群組執行切換保護移轉。

    如需有關這些延伸特性的更多資訊,請參閱 SUNW.HAStoragePlus(5) 線上手冊。

  5. 將邏輯主機名稱資源加入至複製資源群組。


    nodeA# /usr/cluster/bin/scrgadm -a -L -j lhost-reprg-prim \
    -g devicegroup-stor-rg -l lhost-reprg-prim
    

    lhost-reprg-prim 為主要叢集上的複製資源群組之邏輯主機名稱。

  6. 啟用資源、管理資源群組,並使資源群組上線。


    nodeA# /usr/cluster/bin/scswitch -Z -g devicegroup-stor-rg
    nodeA# /usr/cluster/bin/scswitch -z -g devicegroup-stor-rg -h nodeA
    
  7. 驗證資源群組是否處於線上狀態。


    nodeA# /usr/cluster/bin/scstat -g
    

    檢查資源群組狀態欄位,以確認複製資源群組在 nodeA 上處於線上狀態。

接下來的步驟

請移至如何在次要叢集上建立複製資源群組

Procedure如何在次要叢集上建立複製資源群組

開始之前

請確定您已完成了如何在主要叢集上建立複製資源群組中的步驟。

步驟
  1. 以超級使用者身份存取 nodeC

  2. SUNW.HAStoragePlus 註冊為資源類型。


    nodeC# /usr/cluster/bin/scrgadm -a -t SUNW.HAStoragePlus
    
  3. 為磁碟裝置群組建立複製資源群組。


    nodeC# /usr/cluster/bin/scrgadm -a -g devicegroup-stor-rg -h nodeC
    
    devicegroup

    磁碟裝置群組的名稱

    devicegroup-stor-rg

    複製資源群組的名稱

    -h nodeC

    指定可管理複製資源群組的叢集節點

  4. SUNW.HAStoragePlus 資源增加至複製資源群組。


    nodeC# /usr/cluster/bin/scrgadm -a -j devicegroup-stor \
    -g devicegroup-stor-rg -t SUNW.HAStoragePlus \
    -x GlobalDevicePaths=devicegroup \
    -x AffinityOn=True
    
    devicegroup-stor

    複製資源群組的 HAStoragePlus 資源。

    -x GlobalDevicePaths=

    指定 Sun StorEdge Availability Suite 軟體所依賴的延伸特性。

    -x AffinityOn=True

    指定 SUNW.HAStoragePlus 資源必須為由 -x GlobalDevicePaths= 定義的整體裝置與叢集檔案系統執行親合性切換保護移轉。因此,當複製資源群組發生故障轉移或切換保護移轉時,將對關聯的裝置群組執行切換保護移轉。

    如需有關這些延伸特性的更多資訊,請參閱 SUNW.HAStoragePlus(5) 線上手冊。

  5. 將邏輯主機名稱資源加入至複製資源群組。


    nodeC# /usr/cluster/bin/scrgadm -a -L -j lhost-reprg-sec \
    -g devicegroup-stor-rg -l lhost-reprg-sec
    

    lhost-reprg-sec 為主要叢集上的複製資源群組之邏輯主機名稱。

  6. 啟用資源、管理資源群組,並使資源群組上線。


    nodeC# /usr/cluster/bin/scswitch -Z -g devicegroup-stor-rg
    
  7. 驗證資源群組是否處於線上狀態。


    nodeC# /usr/cluster/bin/scstat -g
    

    檢查資源群組狀態欄位,以確認複製資源群組在 nodeC 上處於線上狀態。

接下來的步驟

請移至如何在主要叢集上建立 NFS 應用程式資源群組

Procedure如何在主要叢集上建立 NFS 應用程式資源群組

此程序描述了如何為 NFS 建立應用程式資源群組。此程序特定於該應用程式,不適用於其他類型的應用程式。

開始之前

請確定您已完成了如何在次要叢集上建立複製資源群組中的步驟。

步驟
  1. 以超級使用者身份存取 nodeA

  2. SUNW.nfs 註冊為資源類型。


    nodeA# scrgadm -a -t SUNW.nfs
    
  3. 如果尚未將 SUNW.HAStoragePlus 註冊為資源類型,請進行註冊。


    nodeA# scrgadm -a -t SUNW.HAStoragePlus
    
  4. devicegroup 建立應用程式資源群組。


    nodeA# scrgadm -a -g nfs-rg \
    -y Pathprefix=/global/etc \
    -y Auto_start_on_new_cluster=False \
    -y RG_dependencies=devicegroup-stor-rg
    
    nfs-rg

    應用程式資源群組的名稱。

    Pathprefix=/global/etc

    指定群組中的資源可以寫入管理檔案的目錄。

    Auto_start_on_new_cluster=False

    指定應用程式資源群組並非自動啟動。

    RG_dependencies=devicegroup-stor-rg

    指定應用程式資源群組所依賴的資源群組。在此範例中,應用程式資源群組依賴複製資源群組。

    如果將應用程式資源群組切換保護移轉至新的主要節點,將自動切換保護移轉複製資源群組。但是,如果將複製資源群組切換保護移轉至新的主要節點,則必須手動切換保護移轉應用程式資源群組。

  5. SUNW.HAStoragePlus 資源增加至應用程式資源群組。


    nodeA# scrgadm -a -j nfs-dg-rs -g nfs-rg \
    -t SUNW.HAStoragePlus \
    -x FileSystemMountPoints=/global/mountpoint \
    -x AffinityOn=True
    
    nfs-dg-rs

    為 NFS 應用程式的 HAStoragePlus 資源的名稱。

    -x FileSystemMountPoints=/global/

    指定檔案系統的掛載點為全域掛載點。

    -t SUNW.HAStoragePlus

    指定資源的類型為 SUNW.HAStoragePlus

    -x AffinityOn=True

    指定應用程式資源必須為由 -x GlobalDevicePaths= 定義的整體裝置與叢集檔案系統執行親合性切換保護移轉。因此,當應用程式資源群組發生故障轉移或切換保護移轉時,將對關聯的裝置群組執行切換保護移轉。

    如需有關這些延伸特性的更多資訊,請參閱 SUNW.HAStoragePlus(5) 線上手冊。

  6. 將邏輯主機名稱資源加入至應用程式資源群組。


    nodeA# /usr/cluster/bin/scrgadm -a -L -j lhost-nfsrg-prim -g nfs-rg \
    -l lhost-nfsrg-prim
    

    lhost-nfsrg-prim 為主要叢集上的應用程式資源群組之邏輯主機名稱。

  7. 啟用資源、管理應用程式資源群組,並使應用程式資源群組上線。

    1. 使 NFS 應用程式的 HAStoragePlus 資源上線。


      nodeA# /usr/cluster/bin/scrgadm -a -g nfs-rg \
      -j nfs-rs -t SUNW.nfs -y Resource_dependencies=nfs-dg-rs
      
    2. 使應用程式資源群組在 nodeA 上連線。


      nodeA# /usr/cluster/bin/scswitch -Z -g nfs-rg
      nodeA# /usr/cluster/bin/scswitch -z -g nfs-rg -h nodeA
      
  8. 驗證應用程式資源群組是否處於線上狀態。


    nodeA# /usr/cluster/bin/scstat -g
    

    檢查資源群組狀態欄位,以確定應用程式資源群組在 nodeAnodeB 上是否處於線上狀態。

接下來的步驟

請移至如何在次要叢集上建立 NFS 應用程式資源群組

Procedure如何在次要叢集上建立 NFS 應用程式資源群組

開始之前

請確定您已完成了如何在主要叢集上建立 NFS 應用程式資源群組中的步驟。

步驟
  1. 以超級使用者身份存取 nodeC

  2. SUNW.nfs 註冊為資源類型。


    nodeC# scrgadm -a -t SUNW.nfs
    
  3. 如果尚未將 SUNW.HAStoragePlus 註冊為資源類型,請進行註冊。


    nodeC# scrgadm -a -t SUNW.HAStoragePlus
    
  4. devicegroup 建立應用程式資源群組。


    nodeC# scrgadm -a -g nfs-rg \
    -y Pathprefix=/global/etc \
    -y Auto_start_on_new_cluster=False \
    -y RG_dependencies=devicegroup-stor-rg
    
    nfs-rg

    應用程式資源群組的名稱。

    Pathprefix=/global/etc

    指定群組中的資源可以寫入管理檔案的目錄。

    Auto_start_on_new_cluster=False

    指定應用程式資源群組並非自動啟動。

    RG_dependencies=devicegroup-stor-rg

    指定應用程式資源群組所依賴的資源群組。在此範例中,應用程式資源群組依賴複製資源群組。

    如果將應用程式資源群組切換保護移轉至新的主要節點,將自動切換保護移轉複製資源群組。但是,如果將複製資源群組切換保護移轉至新的主要節點,則必須手動切換保護移轉應用程式資源群組。

  5. SUNW.HAStoragePlus 資源增加至應用程式資源群組。


    nodeC# scrgadm -a -j nfs-dg-rs -g nfs-rg \
    -t SUNW.HAStoragePlus \
    -x FileSystemMountPoints=/global/mountpoint \
    -x AffinityOn=True
    
    nfs-dg-rs

    為 NFS 應用程式的 HAStoragePlus 資源的名稱。

    -x FileSystemMountPoints=/global/

    指定檔案系統的掛載點為全域掛載點。

    -t SUNW.HAStoragePlus

    指定資源的類型為 SUNW.HAStoragePlus

    -x AffinityOn=True

    指定應用程式資源必須為由 -x GlobalDevicePaths= 定義的整體裝置與叢集檔案系統執行親合性切換保護移轉。因此,當應用程式資源群組發生故障轉移或切換保護移轉時,將對關聯的裝置群組執行切換保護移轉。

    如需有關這些延伸特性的更多資訊,請參閱 SUNW.HAStoragePlus(5) 線上手冊。

  6. 將邏輯主機名稱資源加入至應用程式資源群組。


    nodeC# /usr/cluster/bin/scrgadm -a -L -j lhost-nfsrg-sec -g nfs-rg \
    -l lhost-nfsrg-sec
    

    lhost-nfsrg-sec 為次要叢集上的應用程式資源群組之邏輯主機名稱。

  7. 將 NFS 資源增加至應用程式資源群組。


    nodeC# /usr/cluster/bin/scrgadm -a -g nfs-rg \
    -j nfs-rs -t SUNW.nfs -y Resource_dependencies=nfs-dg-rs
    
  8. 確定應用程式資源群組未在 nodeC 上連線。


    nodeC# /usr/cluster/bin/scswitch -n -j nfs-rs
    nodeC# /usr/cluster/bin/scswitch -n -j nfs-dg-rs
    nodeC# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-sec
    nodeC# /usr/cluster/bin/scswitch -z -g nfs-rg -h ""
    

    在重新開機後,此資源群組仍然處於離線狀態,這是因為 Auto_start_on_new_cluster=False

  9. 如果整體容體掛載於主要叢集上,則從次要叢集上卸載該整體容體。


    nodeC# umount /global/mountpoint
    

    如果容體掛載於次要叢集上,同步化將失敗。

接下來的步驟

請移至如何啟用資料複製的範例