Sun Cluster 系統管理指南 (適用於 Solaris 作業系統)

第 4章 管理整體裝置、磁碟路徑監視與叢集檔案系統

本章提供管理整體裝置、磁碟路徑監視與叢集檔案系統的程序。

以下是本章所介紹程序的清單。

有關本章中相關程序的進階說明,請參閱表 4–2

請參閱Sun Cluster 概念指南 (適用於 Solaris 作業系統,以取得與整體裝置、全域名稱空間、磁碟裝置群組、磁碟路徑監視以及叢集檔案系統相關的概念性資訊。

管理整體裝置與全域名稱空間簡介

Sun Cluster 磁碟裝置群組的管理工作有賴於安裝在叢集上的容體管理程式。 Solstice DiskSuite/Solaris Volume Manager是一種「叢集設備」,您可以使用 Solstice DiskSuite/Solaris Volume Manager metaset(1M) 指令來新增、註冊及移除磁碟裝置群組。 如果您使用的是 VERITAS Volume Manager (VxVM),可以使用 VxVM 指令來建立磁碟群組。 然後,您可以使用 scsetup(1M) 公用程式,將磁碟群組註冊為 Sun Cluster 磁碟裝置群組。 在移除 VxVM 磁碟裝置群組時,需同時使用 scsetup 指令和 VxVM 指令。

Sun Cluster 軟體會自動為叢集中的每一個磁碟及磁帶裝置建立原始磁碟裝置群組, 不過叢集裝置群組仍會維持離線狀態,除非您以整體裝置來存取群組。 在管理磁碟裝置群組或容體管理程式磁碟群組時,您必須在該群組之主要節點的叢集節點上執行。

通常您不需要管理全域裝置名稱空間。 安裝時會自動設置全域名稱空間,並會在 Solaris 作業環境重新啟動時自動更新名稱空間。 不過,如果全域名稱空間需要更新,您可以從任何叢集節點執行 scgdevs (1M) 指令。 這個指令會使所有其他叢集節點成員,以及未來可能加入該叢集之節點上的全域名稱空間都被更新。

Solstice DiskSuite/Solaris Volume Manager的整體裝置許可權

對整體裝置許可權所做的變更,不會自動傳遞至 Solstice DiskSuite/Solaris Volume Manager與磁碟裝置之叢集中的所有節點。 如果您要變更整體裝置的許可權,您必須手動變更叢集中每一個節點的許可權。 例如,如果您要將整體裝置 /dev/global/dsk/d3s0 的許可權變更為 644,您必須在叢集中的所有節點上執行

# chmod 644 /dev/global/dsk/d3s0

VxVM 不支援 chmod 指令。 若要變更 VxVM 中的整體裝置許可權,請參閱「VxVM 管理指南」。

整體裝置的動態重新配置

若要完成叢集中磁碟與磁帶裝置上的動態重新配置 (DR) 作業,您必須考慮下列問題。


小心 – 小心 –

如果您在次要節點上執行 DR 作業時,現行的主要節點發生故障,叢集可用性將會受到影響。 除非提供新的次要節點,否則主要節點沒有地方可以進行故障轉移。


若要在整體裝置上執行 DR 作業,請依順序完成下列步驟。

表 4–1 對應作業: 磁碟與磁帶裝置的動態重新配置

作業  

相關章節  

1. 如果必須在現行的主要節點上執行會影響作用中裝置群組的 DR 作業,那麼在裝置上執行 DR 移除作業之前,請先切換主要及次要節點。 

如何切換裝置群組的主要節點

2. 在要移除的裝置上執行 DR 移除作業。 

Sun Enterprise 10000 DR Configuration Guide以及 Sun Enterprise 10000 Dynamic Reconfiguration Reference Manual(出自Solaris 8 on Sun HardwareSolaris 9 on Sun Hardware系列。)

SPARC: VERITAS Volume Manager管理注意事項

管理叢集檔案系統概觀

管理叢集檔案系統無需特定的 Sun Cluster 指令。 管理叢集檔案系統的方式和管理其他任何的 Solaris 檔案系統一樣,可以使用標準的 Solaris 檔案系統指令,如 mountnewfs 等。 指定 -g 選項至 mount 指令可以裝載叢集檔案系統, 叢集檔案系統也能在啟動時自動裝載。


註解 –

當叢集檔案系統讀取檔案時,檔案系統並不會更新那些檔案的存取時間。


SPARC: 支援 VxFS 的準則

Sun Cluster 3.1 配置中並不支援下列 VxFS 功能。

可以使用快取建議,但是只有在指定的節點中才能看出效果。

Sun Cluster 3.1 軟體也支援叢集配置中支援的所有其他 VxFS 功能和選項。 請參閱 VxFS 說明文件,以取得有關叢集配置中支援的 VxFS 選項的詳細資訊。

下列關於如何使用 VxFS 建立高可用性叢集檔案系統的準則,是針對 Sun Cluster 3.14/04 配置而言。

下列有關如何管理 VxFS 叢集檔案系統的準則,並非針對 Sun Cluster 3.1 4/04 軟體。 不過,這些準則和您管理 UFS 叢集檔案系統的方法不同。

管理磁碟裝置群組

scsetup( 1M) 公用程式對於 scconf(1M) 指令是一個互動式介面。 scsetup 會產生 scconf 指令。 產生的指令會在部分程序範例的尾端顯示。


註解 –

Sun Cluster 軟體會自動為叢集中的每一個磁碟及磁帶裝置建立原始磁碟裝置群組。 不過叢集裝置群組仍會維持離線狀態,除非您以整體裝置來存取群組。


表 4–2 作業清單: 管理磁碟裝置群組

作業  

如需相關說明,請參閱 …  

更新整體裝置名稱空間 (不含重新配置的重新開機)  

- 使用 scgdevs(1M)

如何更新整體裝置名稱空間

新增 Solstice DiskSuite/Solaris Volume Manager磁碟組,並註冊為磁碟裝置群組  

- 使用 metaset(1M)

如何新增與註冊磁碟裝置群組 (Solstice DiskSuite/Solaris Volume Manager)

從配置中移除 Solstice DiskSuite/Solaris Volume Manager磁碟裝置群組  

- 使用 metasetmetaclear( 1M)

如何移除及註銷磁碟裝置群組 (Solstice DiskSuite/Solaris Volume Manager)

從所有磁碟裝置群組移除節點  

- 使用 scconfmetasetscsetup

如何從所有磁碟裝置群組移除節點

從 Solstice DiskSuite/Solaris Volume Manager磁碟裝置群組移除節點  

- 使用 metaset

如何從磁碟裝置群組移除節點 (Solstice DiskSuite/Solaris Volume Manager)

SPARC︰將 VERITAS Volume Manager磁碟群組新增為磁碟裝置群組  

- 使用 VxVM 指令和 scsetup( 1M)

SPARC: 如何在初始化磁碟 (VERITAS Volume Manager) 時建立新的磁碟群組

 

SPARC: 如何在封裝磁碟時建立新的磁碟群組 (VERITAS Volume Manager)

 

SPARC: 如何新增新的容體至現有的磁碟裝置群組 (VERITAS Volume Manager)

 

SPARC: 如何將現有的磁碟群組加入磁碟裝置群組 (VERITAS Volume Manager)

 

SPARC: 如何指定磁碟裝置群組的新次要編號 (VERITAS Volume Manager)

 

SPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)

 

SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)

SPARC︰從配置中移除 VERITAS Volume Manager磁碟裝置群組  

- 使用 scsetup (以產生 scconf)

SPARC: 如何從磁碟裝置群組 (VERITAS Volume Manager) 移除容體

 

SPARC: 如何移除及註銷磁碟裝置群組 (VERITAS Volume Manager)

SPARC︰新增節點至 VERITAS Volume Manager磁碟裝置群組  

- 使用 scsetup 以產生 scconf

SPARC: 如何新增節點至磁碟裝置群組 (VERITAS Volume Manager)

SPARC︰從 VERITAS Volume Manager磁碟裝置群組移除節點  

- 使用 scsetup 以產生 scconf

SPARC: 如何從磁碟裝置群組移除節點 (VERITAS Volume Manager)

從原始磁碟裝置群組移除節點  

- 使用 scconf(1M)

SPARC: 如何從原始磁碟裝置群組移除節點

變更磁碟裝置群組屬性  

- 使用 scsetup 以產生 scconf

如何變更磁碟裝置屬性

顯示磁碟裝置群組與屬性  

- 使用 scconf

如何列出磁碟裝置群組配置

變更裝置群組的所需次要節點數目  

- 使用 scsetup 以產生 scconf

如何變更裝置群組所要的次要節點數目

切換磁碟裝置群組的主要節點  

- 使用 scswitch (1M)

如何切換裝置群組的主要節點

使磁碟裝置群組進入維護狀態  

- 使用 metasetvxdg

如何使磁碟裝置群組進入維護狀態

如何更新整體裝置名稱空間

加入新的整體裝置時,透過執行 scgdevs(1M) 手動更新整體裝置名稱空間。


註解 –

如果執行指令的節點目前不是叢集成員,那麼 scgdevs 指令便不會有任何效果。 如果未裝載 /global/.devices/node@ nodeID 檔案系統,則指令同樣不會有效果。


  1. 成為叢集上任何節點的超級使用者。

  2. 使用 scgdevs 指令重新配置名稱空間。


    # scgdevs
    

範例—更新整體裝置名稱空間

以下範例顯示執行 scgdevs 成功時所產生的輸出。


# scgdevs 
Configuring the /dev/global directory (global devices)...
obtaining access to all attached disks
reservation program successfully exiting

如何新增與註冊磁碟裝置群組 (Solstice DiskSuite/Solaris Volume Manager)

使用 metaset 指令建立 Solstice DiskSuite/Solaris Volume Manager磁碟組並將其註冊為 Sun Cluster 磁碟裝置群組。 註冊磁碟組時,您指定給磁碟組的名稱會自動指定給磁碟裝置群組。

  1. 在連接您要建立磁碟組之磁碟的節點上成為超級使用者。

  2. 計算配置所需的複合裝置名稱數目,並修改每個節點上的 /kernel/drv/md.conf 檔案。

    請參閱Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)中的「如何設定複合裝置名稱及磁碟組的數目」。

  3. 使用 metaset(1M) 指令新增 Solstice DiskSuite/Solaris Volume Manager磁碟組,並將其註冊為具備 Sun Cluster 的磁碟裝置群組。


    # metaset -s diskset -a -h nodelist
    

    -s diskset

    指定要建立的磁碟組。

    -a -h nodelist

    新增可控制磁碟組的節點清單。


    註解 –

    在叢集上執行 metaset 指令來建立「Solstice DiskSuite/Solaris 容體管理程式」裝置群組,根據預設將會產生一個次要節點,不論該裝置群組中所含的節點數目為何。 在建立裝置群組後,您可以使用 scsetup(1M) 公用程式來變更所要的次要節點數目。 請參閱如何變更裝置群組所要的次要節點數目 ,以取得有關磁碟故障轉移的詳細資訊。


  4. 確認磁碟裝置群組是否新增成功。

    磁碟裝置群組名稱會與 metaset 指定的磁碟組名稱一致。


    # scconf -p | grep disk-device-group
    

範例—新增 Solstice DiskSuite/Solaris Volume Manager磁碟裝置群組

以下範例說明了建立磁碟組與磁碟裝置群組的方法,並確認磁碟裝置群組已經建立。


# metaset -s dg-schost-1 -a -h phys-schost-1
# scconf -p | grep dg-schost-1
Device group name: dg-schost-1

如何移除及註銷磁碟裝置群組 (Solstice DiskSuite/Solaris Volume Manager)

磁碟裝置群組是已透過 Sun Cluster 註冊的 Solstice DiskSuite/Solaris Volume Manager磁碟組。 若要移除 Solstice DiskSuite/Solaris Volume Manager磁碟裝置群組,請使用 metaclearmetaset 指令。 這些指令會移除相同名稱的磁碟裝置群組,並註銷其 Sun Cluster 磁碟裝置群組的身份。

請參閱 Solstice DiskSuite/Solaris Volume Manager說明文件,以取得移除磁碟組的步驟。

如何從所有磁碟裝置群組移除節點

使用此程序移除所有磁碟裝置群組 (該群組列出了潛在主要節點清單中的節點) 中的叢集節點。

  1. 在所有磁碟裝置群組中您要移除的潛在主要節點上成為超級使用者。

  2. 確定要移除的節點屬於其成員的的磁碟裝置群組。

    裝置群組節點清單中尋找每一個磁碟裝置群組的節點名稱。


    # scconf -p | grep "Device group"
    

  3. 是否有任何在步驟 2 找到的磁碟裝置群組屬於 SDS/SVM 裝置群組類型?

  4. 是否有任何在步驟 2 找到的磁碟裝置群組屬於 VxVM 裝置群組類型?

  5. 決定要移除其成員節點的原始磁碟裝置群組。

    請注意,下列指令包含了兩個 “v”,-pvv。 要顯示原始磁碟裝置群組需要第二個 “v”。


    # scconf -pvv | grep "Device group"
    

  6. 是否有任何在步驟 5 中列出的磁碟裝置群組屬於 DiskLocal_Disk,或同時屬於這兩種裝置群組類型?

  7. 確認節點已從所有磁碟裝置群組的潛在主要節點中移除。

    如果節點不再列為任何磁碟裝置群組的潛在主要節點,則此項指令不會傳回任何訊息。


    # scconf -pvv | grep "Device group" | grep nodename
    

如何從磁碟裝置群組移除節點 (Solstice DiskSuite/Solaris Volume Manager)

使用此程序從 Solstice DiskSuite/Solaris Volume Manager磁碟裝置群組的潛在主要節點清單中,移除一個叢集節點。 請為每一個您想要移除節點的磁碟裝置群組,重複執行 metaset 指令。

  1. 確認節點仍然是群組的成員,且群組為 SDS/SVM 裝置群組。

    SDS/SVM 裝置群組類型表示一個 Solstice DiskSuite/Solaris Volume Manager磁碟裝置群組。


    phys-schost-1% scconf -pv | grep '(global-galileo)'
      (global-galileo) Device group type:              SDS/SVM
      (global-galileo) Device group failback enabled:  no
      (global-galileo) Device group node list:         phys-schost-1, phys-schost-2
      (global-galileo) Diskset name:                   global-galileo
    phys-schost-1%

  2. 判斷哪一個節點是裝置群組目前的主要節點。


     # scstat -D
    
  3. 在目前擁有您要修改之磁碟裝置群組的節點上成為超級使用者。

  4. 從磁碟裝置群組移除節點的主機名稱。


    # metaset -s setname -d -h nodelist
    

    -s setname

    指定磁碟裝置群組名稱

    -d

    從磁碟裝置群組移除含有 -h 的節點。

    -h nodelist

    從可以主控磁碟裝置群組的節點清單中移除節點


    註解 –

    更新可能需要數分鐘才能夠完成。


    如果指令失敗,則將 -f ([強制]) 選項加入指令中。


    # metaset -s setname -d -f -h nodelist
    

  5. 對於要從中移除潛在主要節點的每個磁碟裝置群組,重複步驟 4

  6. 確認節點已從磁碟裝置群組中移除。

    磁碟裝置群組名稱會與 metaset 指定的磁碟組名稱一致。


    phys-schost-1% scconf -pv |grep   
    Device group node list:  phys-schost-1, phys-schost-2, phys-schost-1%

範例—從磁碟裝置群組移除節點 (Solstice DiskSuite/Solaris Volume Manager)

下列範例顯示如何從磁碟裝置群組配置移除主機名稱 phys-schost-2。 此範例刪除成為指定磁碟裝置群組中潛在主要節點的 phys-schost-2。 執行 scstat- D 指令,以確認節點移除。 檢查移除的節點不再顯示於螢幕文字中。


[Determine the Solstice DiskSuite/Solaris Volume Manager
 disk device group(2) for the node:]
# scconf -pv | grep Device
  Device group name:                 dg-schost-1
    Device group type:               SDS/SVM
    Device group failback enabled:   no
    Device group node list:          phys-schost-1, phys-schost-2
    Device group ordered node list:  yes
    Device group diskset name:    	         dg-schost-1
[Determine the disk device group(s) for the node:]
# scstat -D
  -- Device Group Servers --
                       Device Group  Primary        Secondary
                       ------------  -------        ---------
  Device group servers: dg-schost-1  phys-schost-1  phys-schost-2
[Become superuser.]
[Remove the hostname from the disk device group:]
# metaset -s dg-schost-1 -d -h phys-schost-2
[Verify removal of the node:]
phys-schost-1% scconf -pv |grep
 Device Group Servers --
                       Device Group  Primary        Secondary
                       ------------  -------        ---------
Device group node list: dg-schost-1, phys-schost-2,  

如何在叢集中建立三個以上的磁碟組

如果您想在叢集中建立三個以上的磁碟組,請在建立磁碟組之前執行下列步驟。 如果您是第一次安裝磁碟組,或是要新增更多磁碟組到已完全配置的叢集中,請遵循這些步驟進行。

  1. 確認 md_nsets 變數的值夠高。 這個值應大於您想要在叢集中建立的磁碟組總數。

    1. 在叢集的任何節點上,檢查 md_nsets 變數值,該變數值位於 /kernel/drv/md.conf 檔中。

    2. 如果叢集中的磁碟組總數大於現有的 md_nsets 負值,請增加每個節點的 md_nsets 值。

      可允許的最大磁碟組數目是 md_nsets 的值減一。 md_nsets 的可能最大值為 32。

    3. 確定 /kernel/drv/md.conf 檔在叢集的每個節點上都相同。


      小心 – 小心 –

      未遵循此準則會導致嚴重的 Solstice DiskSuite/Solaris Volume Manager錯誤和可能的資料遺失。


    4. 在某一個節點上關閉叢集。


      # scshutdown -g0 -y
      

    5. 重新啟動叢集中的每個節點。

      • SPARC︰


        ok boot
        

      • x86︰


                              <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                          <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b
        

  2. 在叢集的每一個節點上執行 devfsadm(1M) 指令。

    您可以在叢集的所有節點上同時執行此指令。

  3. 從叢集的每一個節點執行 scgdevs (1M) 指令。

  4. 在每個節點上,確認在您試圖建立任何磁碟組之前, scgdevs 指令便已完成。

    scgdevs 指令在所有節點上自行遠端呼叫,即使只從一個節點執行指令也是如此。 若要判斷 scgdevs 指令是否已經完成作業,請在叢集的每個節點上執行下列指令。


    % ps -ef | grep scgdevs
    

SPARC: 如何在初始化磁碟 (VERITAS Volume Manager) 時建立新的磁碟群組


註解 –

這個程序只適用於起始磁碟。 如果您要密封磁碟,請使用 SPARC: 如何在封裝磁碟時建立新的磁碟群組 (VERITAS Volume Manager) 的程序。


新增 VxVM 磁碟群組之後,您必須註冊磁碟裝置群組。

如果您使用 VxVM 來設定 Oracle Parallel Server/Real Application Clusters 的共用磁碟群組,請使用VERITAS 容體管理程式管理指南中所述的 VxVM 叢集功能。

  1. 實際連到磁碟 (此組成要新增的磁碟群組之磁碟) 的叢集節點上成為超級使用者。

  2. 建立 VxVM 磁碟群組與容體。

    使用您喜好的方法來建立磁碟群組與容體。


    註解 –

    如果您正在設定鏡像容體,可在發生節點故障時使用「已使用區域記錄」(DRL) 來減少容體回復時間。 但是,DRL 可能會降低 I/O 產量。


    請參閱 VERITAS Volume Manager說明文件,以取得完成此步驟的程序。

  3. 將 VxVM 磁碟群組註冊為 Sun Cluster 磁碟裝置群組。

    請參閱 SPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)

    請不要使用叢集框架來註冊 Oracle Parallel Server/Real Application Clusters 共用磁碟群組。

SPARC: 如何在封裝磁碟時建立新的磁碟群組 (VERITAS Volume Manager)


註解 –

這個程序只適用於封裝磁碟。 如果您要起始磁碟,請使用SPARC: 如何在初始化磁碟 (VERITAS Volume Manager) 時建立新的磁碟群組 的程序。


您可以將非根磁碟加入 Sun Cluster 磁碟裝置群組,方法是先將磁碟封裝為 VxVM 磁碟群組,然後將磁碟群組註冊為 Sun Cluster 磁碟裝置群組。

只有在起始建立 VxVM 磁碟群組時才支援磁碟封裝。 在建立 VxVM 磁碟群組並將其註冊為 Sun Cluster 磁碟裝置群組之後,便只有可起始的磁碟才應加入磁碟群組中。

如果您使用 VxVM 來設定 Oracle Parallel Server/Real Application Clusters 的共用磁碟群組,請使用VERITAS 容體管理程式管理指南中所述的 VxVM 叢集功能。

  1. 成為叢集上任何節點的超級使用者。

  2. 如果封裝的磁碟在 /etc/vfstab 檔中有系統檔案項目,請確定 mount at boot 選項被設為 no

    一旦磁碟已封裝並註冊為 Sun Cluster 磁碟裝置群組,就請設回 yes

  3. 封裝磁碟。

    使用 vxdiskadm 功能表或圖形化使用者介面來封裝磁碟。 VxVM 需要在磁碟開頭或結尾處有二個可用分割區以及未指定的磁柱。 片段 2 也必須設定成整個磁碟。 請參閱 vxdiskadm(1M) 線上說明手冊,以取得詳細資訊。

  4. 先關閉再重新啟動節點。

    scswitch(1M) 指令會將所有的資源群組與裝置群組,從主要節點切換到下一個個人喜好的節點。 使用 shutdown 來關閉及重新啟動節點。


    # scswitch -S -h node[,...]
    # shutdown -g0 -y -i6
    

  5. 如有需要,將所有資源群組以及裝置群組切換回原來的節點。

    如果資源群組和裝置群組一開始便配置成故障返回主要節點,便不需要此步驟。


    # scswitch -z -D disk-device-group -h node[,...] 
    # scswitch -z -g resource-group -h node[,...] 
    

  6. 將 VxVM 磁碟群組註冊為 Sun Cluster 磁碟裝置群組。

    請參閱 SPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)

    請不要使用叢集框架來註冊 Oracle Parallel Server/Real Application Clusters 共用磁碟群組。

SPARC: 如何新增新的容體至現有的磁碟裝置群組 (VERITAS Volume Manager)

當您新增新的容體至現有的 VxVM 磁碟裝置群組時,請從線上磁碟裝置群組的主要節點執行此程序。


註解 –

新增容體後,您要使用程序 SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)註冊配置變更。


  1. 成為叢集中任何節點的超級使用者。

  2. 決定您要新增新容體之磁碟裝置群組的主要節點。


     # scstat -D
    

  3. 如果磁碟裝置群組為離線狀態,請讓裝置群組上線。


    # scswitch -z -D disk-device-group -h node[,...]
    

    -z -D disk-device-group

    切換指定的裝置群組。

    -h node

    指定磁碟裝置群組要切換至哪個節點, 此節點會成為新的主要節點。

  4. 從主要節點 (目前主控磁碟裝置群組的節點) 建立磁碟群組中的 VxVM 容體。

    請參閱 VERITAS Volume Manager說明文件,以取得建立 VxVM 容體的程序。

  5. 請註冊 VxVM 磁碟群組的變更,以更新全域名稱空間。

    請參閱 SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)

SPARC: 如何將現有的磁碟群組加入磁碟裝置群組 (VERITAS Volume Manager)

先將磁碟群組匯入目前的節點,然後將磁碟群組註冊為 Sun Cluster 磁碟裝置群組,可以將現有的 VxVM 磁碟群組加入 Sun Cluster 磁碟裝置群組。

  1. 成為叢集上任何節點的超級使用者。

  2. 將 VxVM 磁碟群組匯入現行的節點。


    # vxdg import diskgroup
    

  3. 將 VxVM 磁碟群組註冊為 Sun Cluster 磁碟裝置群組。

    請參閱 SPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)

SPARC: 如何指定磁碟裝置群組的新次要編號 (VERITAS Volume Manager)

如果由於某個次要編號與其他磁碟群組衝突而導致磁碟裝置群組註冊失敗,則您必須為新的磁碟群組指定一個新的、未使用的次要編號。 指定好新的次要編號後,請重新執行程序將磁碟群組註冊為 Sun Cluster 磁碟裝置群組。

  1. 成為叢集上任何節點的超級使用者。

  2. 決定使用中的次要編號。


    # ls -l /global/.devices/node@nodeid/dev/vx/dsk/*
    

  3. 選擇另一個未使用的 1000 倍數當作新磁碟群組的基本次要編號。

  4. 指定新的次要編號給磁碟群組。


    # vxdg reminor diskgroup base-minor-number
    

  5. 將 VxVM 磁碟群組註冊為 Sun Cluster 磁碟裝置群組。

    請參閱 SPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)

SPARC: 範例—如何指定磁碟裝置群組的新次要編號

本範例使用 16000-16002 與 4000-4001 次要號碼。vxdg reminor 指令用來將基本次要號碼 5000 指定給新的磁碟裝置群組。


# ls -l /global/.devices/node@nodeid/dev/vx/dsk/*
/global/.devices/node@nodeid/dev/vx/dsk/dg1
brw-------   1 root     root      56,16000 Oct  7 11:32 dg1v1
brw-------   1 root     root      56,16001 Oct  7 11:32 dg1v2
brw-------   1 root     root      56,16002 Oct  7 11:32 dg1v3
 
/global/.devices/node@nodeid/dev/vx/dsk/dg2
brw-------   1 root     root      56,4000 Oct  7 11:32 dg2v1
brw-------   1 root     root      56,4001 Oct  7 11:32 dg2v2
# vxdg reminor dg3 5000

SPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)

此程序使用 scsetup(1M) 公用程式來將關聯的 VxVM 磁碟群組註冊為 Sun Cluster 磁碟裝置群組。


註解 –

磁碟裝置群組在叢集註冊之後,請勿使用 VxVM 指令匯入或撤出 VxVM 磁碟群組。 如果您在 VxVM 磁碟群組或容體做變更,請使用程序SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager) 來註冊磁碟裝置群組配置的變更, 這個程序可以確保全域名稱空間處於正確的狀態。


註冊 VxVM 磁碟裝置群組的必備條件如下:

當您定義偏好的順序之後,當發生最慣用的節點關機而稍後返回叢集時,還可以指定是否要將磁碟裝置切換回最偏好的節點。

請參閱 scconf(1M) ,以取得節點偏好設定以及故障回復選項的詳細資訊。

非主要叢集節點 (備用) 會根據節點偏好順序轉換為次要節點。 裝置群組預設的次要節點數目通常設定為一。 這個預設設定可將正常操作時,因多個次要節點的主要檢查點所導致的效能降級降到最低。 例如,在擁有四個節點的叢集中,預設上會配置一個主要、一個次要及兩個備用節點。 請參閱SPARC: 如何設定次要節點所要的數目 (VERITAS Volume Manager)

  1. 成為叢集上任何節點的超級使用者。

  2. 輸入 scsetup 公用程式。


    # scsetup
    

    顯示 Main Menu。

  3. 若要使用 VxVM 磁碟裝置群組,請輸入 4 (裝置群組與容體)。

    會出現 Device Groups Menu。

  4. 若要註冊 VxVM 磁碟裝置群組,請輸入 1 (將 VxVM 磁碟群組註冊為裝置群組)。

    依指示進行,同時輸入要註冊為 Sun Cluster 磁碟裝置群組的 VxVM 磁碟群組名稱。

    如果您使用 VxVM 來設定 Oracle Parallel Server/Real Application Clusters 的共用磁碟群組,請勿以叢集框架來註冊共用磁碟群組。 請使用VERITAS 容體管理程式管理指南中所述的 VxVM 叢集功能。

  5. 如果您在試圖註冊磁碟裝置群組時發生下列錯誤,請重新指定磁碟裝置群組的次要編號。


    scconf: Failed to add device group - in use

    若要重新指定磁碟裝置群組的次要號碼,請使用程序 SPARC: 如何指定磁碟裝置群組的新次要編號 (VERITAS Volume Manager)。 此程序可讓您指定新的次要編號,不與現存磁碟裝置群組所使用的次要編號相衝突。

  6. 驗證磁碟裝置群組是否已註冊且為連線狀態。

    如果磁碟裝置群組已正確註冊,在使用以下指令時,將顯示新磁碟裝置群組的資訊。


    # scstat -D
    


    註解 –

    如果您變更了任何在叢集註冊完成的 VxVM 磁碟群組或容體的配置資訊,則必須使用 scsetup( 1M) 同步化磁碟裝置群組。 此處所指的配置資訊變更包括新增或移除容體,以及變更現有容體的群組、擁有者或權限。 配置變更後重新註冊可以確保全域名稱空間處於正確的狀態。 請參閱 如何更新整體裝置名稱空間


SPARC: 範例—註冊 VERITAS Volume Manager磁碟裝置群組

以下範例為註冊 VxVM 磁碟裝置群組 dg1 時,scsetup 所產生的 scconf 指令及驗證步驟。 此範例假設 VxVM 磁碟群組及容體在先前便已建立。


# scsetup

scconf -a -D type=vxvm,name=dg1,nodelist=phys-schost-1:phys-schost-2

# scstat -D
-- Device Group Servers --
                         Device Group      Primary           Secondary
                         ------------      -------           ---------
Device group servers:    dg1              phys-schost-1      phys-schost-2
 
-- Device Group Status --
                              Device Group        Status              
                              ------------        ------              
  Device group status:        dg1                 Online

SPARC: 下一步

若要在 VxVM 磁碟裝置群組上建立叢集檔案系統,請參閱如何新增叢集檔案系統

如果次要編號發生問題,請參閱SPARC: 如何指定磁碟裝置群組的新次要編號 (VERITAS Volume Manager)

SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)

當您變更 VxVM 磁碟群組或容體的任何配置資訊時,您需要註冊 Sun Cluster 磁碟裝置群組的配置變更。 註冊可以確保全域名稱空間處於正確的狀態。

  1. 成為叢集中任何節點的超級使用者。

  2. 執行 scsetup(1M) 公用程式。


    # scsetup
    

    顯示 Main Menu。

  3. 若要使用 VxVM 磁碟裝置群組,請輸入 4 (裝置群組與容體)。

    會出現 Device Groups Menu。

  4. 若要註冊配置變更,請輸入 2 (同步化 VxVM 裝置群組的容體資訊)。

    請依指示進行,同時輸入已經變更配置的 VxVM 磁碟群組。

SPARC: 範例—註冊 VERITAS Volume Manager磁碟群組配置變更

以下範例顯示註冊變更的 VxVM 磁碟裝置群組 (dg1) 時,scsetup 所產生的 scconf 指令。 此範例假設 VxVM 磁碟群組及容體在先前便已建立。


# scsetup
 
scconf -c -D name=dg1,sync

SPARC: 如何設定次要節點所要的數目 (VERITAS Volume Manager)

如果主要節點失敗,numsecondaries 屬性會指定可主控群組的裝置群組內的節點數目。 裝置服務預設的次要節點數目為 1。 這個值可以設定為介於 1 和裝置群組中運作的非主要提供者之節點數之間的任何整數。

在平衡叢集效能與可用性上,這個設定是很重要的因素。 例如,增加所要的次要節點數目,可以增加裝置群組對抗叢集中同時發生多種故障的機會。 不過,增加次要節點數目也會定期降低正常作業時的效能。 較小的次要節點數目一般會產生較佳的效能,但是會降低可用性。 不過,較大的次要節點數目卻不一定會使上述檔案系統或裝置群組具有較高的可用性。 請參閱Sun Cluster 概念指南 (適用於 Solaris 作業系統)中的「管理與應用程式開發主要概念」,以取得詳細資訊。

  1. 成為叢集上任何節點的超級使用者。

  2. 執行 scsetup(1M) 公用程式。


    # scsetup
    

    顯示 Main Menu。

  3. 若要使用 VxVM 磁碟裝置群組,請輸入 4 (裝置群組與容體)。

    會出現 Device Groups Menu。

  4. 若要變更裝置群組的主要屬性,請鍵入 6 (變更裝置群組的主要屬性)。

    顯示 Change Key Properties Menu。

  5. 若要變更所要的次要節點數目,請輸入 2 (變更 numsecondaries 屬性)。

    依指示進行,同時輸入要為磁碟裝置群組配置的所要次要節點數目。 輸入適當的值之後,便會執行對應的 scconf 指令。 接著會列印記錄,且使用者會返回上一個功能表。

  6. 使用 scconf -p 指令驗證裝置群組配置。


    # scconf -p | grep Device
    Device group name:                          dg-schost-1
    Device group type:                          VxVM
    Device group failback enabled:              yes
    Device group node list:                     phys-schost-1,phys-schost-2, phys-schost-3
    Device group ordered node list:             yes
    Device group desired number of secondaries: 1
    Device group diskset name:                  dg-schost-1


    註解 –

    如果您變更註冊到叢集的 VxVM 磁碟群組或容體的任何配置資訊,則必須使用 scsetup 來註冊磁碟裝置群組。 此處所指的配置資訊變更包括新增或移除容體,以及變更現有容體的群組、擁有者或權限。 配置變更後重新註冊可以確保全域名稱空間處於正確的狀態。 請參閱 如何更新整體裝置名稱空間


  7. 確認磁碟裝置群組的主要節點及狀態。


    # scstat -D
    

SPARC: 範例—設定所要的次要節點數目 (VERITAS 容體管理程式)

以下範例顯示當 scsetup 配置裝置群組 (diskgrp1) 所要的次要節點數目時,所產生的 scconf 指令。 請參閱如何變更裝置群組所要的次要節點數目 ,以取得建立裝置群組之後,變更所要的次要節點數目的相關資訊。


# scconf -a -D type=vxvm,name=diskgrp1, 
nodelist=host1:host2:host3,preferenced=true, \
failback=enabled,numsecondaries=2
 

SPARC: 如何從磁碟裝置群組 (VERITAS Volume Manager) 移除容體


註解 –

當您從磁碟裝置群組移除容體時,您必須使用SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager) 程序來註冊磁碟裝置群組的配置變更。


  1. 成為叢集上任何節點的超級使用者。

  2. 決定磁碟裝置群組的主要節點及狀態。


    # scstat -D
    

  3. 如果磁碟裝置群組處於離線狀態,請先恢復其連線。


    # scswitch -z -D disk-device-group -h node[,...]
    

    -z

    執行切換。

    -D disk-device-group

    指定要切換的裝置群組。

    -h node

    指定要切換至哪一個節點名稱, 此節點會成為新的主要節點。

  4. 從主要節點 (目前主控磁碟裝置群組的節點) 移除磁碟群組中的 VxVM 容體。


    # vxedit -g diskgroup -rf rm volume
    

    -g diskgroup

    指定含有容體的 VxVM 磁碟群組。

    -rf rm volume

    移除指定的容體。

  5. 使用 scsetup(1M) 來註冊磁碟裝置群組配置的變更,以更新全域名稱空間。

    請參閱 SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)

SPARC: 如何移除及註銷磁碟裝置群組 (VERITAS Volume Manager)

移除 Sun Cluster 磁碟裝置群組將會導致對應的 VxVM 磁碟群組被撤出,而不是被銷毀。 不過,即使 VxVM 磁碟群組依然存在,除非重新註冊,否則不能用於叢集。

這個程序使用 scsetup( 1M) 公用程式移除 VxVM 磁碟群組,並將它當作 Sun Cluster 磁碟裝置群組註銷。

  1. 成為叢集上任何節點的超級使用者。

  2. 使磁碟裝置群組離線。


    # scswitch -F -D disk-device-group
    

    -F

    使磁碟裝置群組離線。

    -D disk-device-group

    指定要離線的裝置群組。

  3. 輸入 scsetup 公用程式。

    顯示 Main Menu。


    # scsetup
    

  4. 若要使用 VxVM 裝置群組,請輸入 4 (裝置群組與容體)。

    會出現 Device Groups Menu。

  5. 若要註銷 VxVM 磁碟群組,請輸入 3 (註銷 VxVM 裝置群組)。

    請依指示進行,並輸入要註銷的 VxVM 磁碟群組。

SPARC: 範例—移除並註銷 VERITAS Volume Manager磁碟裝置群組

以下範例顯示離線的 VxVM 磁碟裝置群組 dg1,以及 scsetup 在移除並註銷磁碟裝置群組時所產生的 scconf 指令。


# scswitch -F -D dg1
# scsetup

   scconf -r -D name=dg1

SPARC: 如何新增節點至磁碟裝置群組 (VERITAS Volume Manager)

此程序使用 scsetup(1M) 公用程式將節點新增至磁碟裝置群組。

新增節點至 VxVM 磁碟裝置群組的必備條件如下:

  1. 成為叢集上任何節點的超級使用者。

  2. 出現提示符號時,請鍵入 scsetup 指令。


    # scsetup
    
    將顯示 Main Menu。

  3. 若要使用 VxVM 磁碟裝置群組,請輸入 4 (裝置群組與容體)。

    會出現 Device Groups Menu。

  4. 若要新增節點到 VxVM 磁碟裝置群組,請輸入 4 (新增節點至 VxVM 裝置群組)。

    請依指示進行,同時輸入裝置群組與節點名稱。

  5. 確認節點是否已新增。

    請查詢下列指令顯示之新磁碟的裝置群組資訊。


    # scconf -p 
    

SPARC: 範例—新增節點到 VERITAS Volume Manager磁碟裝置群組

以下範例顯示當 scsetup 新增節點 (phys-schost-3 ) 到 VxVM 磁碟裝置群組 (dg1) 時,所產生的 scconf 指令,以及驗證步驟。


# scsetup
 
scconf a D type=vxvm,name=dg1,nodelist=phys-schost-3
  
# scconf -p
Device group name:                dg1
   Device group type:             VXVM
   Device group failback enabled: yes
   Device group node list:        phys-schost-1, phys-schost-3

SPARC: 如何從磁碟裝置群組移除節點 (VERITAS Volume Manager)

使用此程序從 VERITAS Volume Manager (VxVM) 磁碟裝置群組 (磁碟群組) 之潛在主要節點清單移除叢集節點。

  1. 確認節點仍然是群組的成員,且群組為 VxVM 裝置群組。

    VxVM 裝置群組類型表示一個 VxVM 磁碟裝置群組。


    phys-schost-1% scconf -pv | grep '(global-galileo)'
      (global-galileo) Device group type:              VxVM
      (global-galileo) Device group failback enabled:  no
      (global-galileo) Device group node list:         phys-schost-1, phys-schost-2
      (global-galileo) Diskset name:                   global-galileo
    phys-schost-1%

  2. 成為現行叢集成員節點的超級使用者。

  3. 執行 scsetup(1M) 指令。


    # scsetup
    

    顯示 Main Menu。

  4. 若要重新配置磁碟裝置群組,請輸入 4 (裝置群組與容體)。

  5. 要從 VxVM 磁碟裝置群組移除節點,請輸入 5 (從 VxVM 裝置群組移除節點)。

    依提示從磁碟裝置群組移除叢集節點。 系統將詢問您以下項目的相關資訊:

    • VxVM 裝置群組

    • 節點名稱

  6. 請確認已從 VxVM 磁碟裝置群組移除節點。


    # scconf -p | grep Device
    

SPARC: 範例—從磁碟裝置群組移除節點 (VxVM)

這個範例顯示從 dg1 VxVM 磁碟裝置群組移除名為 phys-schost-1 的節點。


[Determine the VxVM disk device group for the node:]
# scconf -p | grep Device
  Device group name:                 dg1
    Device group type:               VxVM
    Device group failback enabled:   no
    Device group node list:          phys-schost-1, phys-schost-2
    Device group diskset name:    	dg1
[Become superuser and execute the scsetup utility:]
# scsetup
 Select Device groups and volumes>Remove a node from a VxVM device group.
Answer the questions when prompted. 
You will need the following information.
  You Will Need:            Example:
  VxVM device group name    dg1
  node names                phys-schost-1
[Verify that the scconf command executed properly:]
 
scconf -r -D name=dg1,nodelist=phys-schost-1
 
    Command completed successfully.
Quit the scsetupDevice Groups Menu and Main Menu.
[Verify that the node was removed:]
# scconf -p | grep Device
  Device group name:                 dg1
    Device group type:               VxVM
    Device group failback enabled:   no
    Device group node list:          phys-schost-2
    Device group diskset name:    	dg1

SPARC: 如何從原始磁碟裝置群組移除節點

使用此程序從 VERITAS Volume Manager (VxVM) 磁碟裝置群組 (磁碟群組) 之潛在主要節點清單中,移除一個叢集節點。

使用此程序從原始磁碟裝置群組的潛在主要節點清單中,移除一個叢集節點。

  1. 不同於要移除的節點叢集中的一個節點上成為超級使用者。

  2. 找到與已移除節點連結的磁碟裝置群組。

    裝置群組節點清單項目中尋找節點名稱。


    # scconf -pvv | grep Devicenodename | grep 	
    

  3. 確認在步驟 2 找到的哪些磁碟裝置群組為原始磁碟裝置群組。

    原始磁碟裝置群組屬於 DiskLocal_Disk 裝置群組類型。


    # scconf -pvv | grep group type
    

  4. 停用每一個 Local_Disk 原始磁碟裝置群組的 localonly 屬性。


    # scconf -c -D name=rawdisk-device-group,localonly=false
    

    請參閱 scconf_dg_rawdisk(1M) 線上說明手冊,以取得有關 localonly 屬性的詳細資訊。

  5. 確認您已停用所有連結到已移除節點的原始磁碟裝置群組的 localonly 屬性。

    Disk 裝置群組種類表示原始磁碟裝置群組的 localonly 屬性已停用。


    # scconf -pvv | grep group type 
    

  6. 從所有在 步驟 3 中找到的原始磁碟裝置群組移除節點。

    您必須針對連結至已移除節點的每一個原始磁碟裝置群組完成這個步驟。


    # scconf -r -D name=rawdisk-device-group,nodelist=nodename
    

SPARC: 範例—從原始磁碟裝置群組移除節點

這個範例顯示如何從原始磁碟裝置群組移除節點 (phys-schost-2)。 所有指令是從叢集的另一個節點執行 (phys-schost-1)。


[Identify the disk device groups connected to the node being removed:]
phys-schost-1# scconf -pvv | grep phys-schost-2 | grep Device group node list
	(dsk/d4) Device group node list:  phys-schost-2
	(dsk/d2) Device group node list:  phys-schost-1, phys-schost-2
	(dsk/d1) Device group node list:  phys-schost-1, phys-schost-2
[Identify the are raw disk device groups:]
phys-schost-1# scconf -pvv | grep group type
	(dsk/d4) Device group type:          Local_Disk
	(dsk/d8) Device group type:          Local_Disk
[Disable the localonly flag for each local disk on the node:]
phys-schost-1# scconf -c -D name=dsk/d4,localonly=false
[Verify that the localonly flag is disabled:]
phys-schost-1# scconf -pvv | grep group type
    (dsk/d4) Device group type:          Disk
    (dsk/d8) Device group type:          Local_Disk
[Remove the node from all raw disk device groups:]
phys-schost-1# scconf -r -D name=dsk/d4,nodelist=phys-schost-2
phys-schost-1# scconf -r -D name=dsk/d2,nodelist=phys-schost-2
phys-schost-1# scconf -r -D name=dsk/d1,nodelist=phys-schost-2

如何變更磁碟裝置屬性

磁碟裝置群組主要所有權的建立方法是以稱之為 preferenced 的所有權喜好設定性質的設定為基礎的。 如果未設定此性質,則其他無所有者之磁碟裝置群組的主要所有者,會是第一個試圖存取該群組中磁碟的節點。 不過,如果已經設定這個性質,您必須指定節點建立所有權時依據的喜好順序。

如果您停用 preferenced 性質,則 failback 性質也會自動停用。 不過,如果您試圖啟用或重新啟用 preferenced 性質,您可以啟用或停用 failback 性質。

如果 preferenced 性質已經啟動或重新啟動,系統會要求您重新建立主要所有權喜好設定清單中的節點順序。

此程序使用 scsetup( 1M) 來設定或重設 Solstice DiskSuite/Solaris Volume Manager或 VxVM 磁碟裝置群組的 preferenced 性質及 failback 性質。

若要執行這個程序,需要您要變更性質值之磁碟裝置群組的名稱。

  1. 成為叢集上任何節點的超級使用者。

  2. 執行 scsetup 指令。

    顯示 Main Menu。


    # scsetup
    

  3. 要使用磁碟裝置群組,請輸入 4 (裝置群組與容體)。

    會出現 Device Groups Menu。

  4. 若要變更裝置群組的主要屬性,請輸入 6 (變更 VxVM 或 Solstice DiskSuite/Solaris Volume Manager裝置群組的主要屬性)。

    此時會顯示 Change Key Properties Menu

  5. 若要變更裝置群組屬性,請輸入 1 (變更 preferenced 及/或 failback 屬性)。

    請依指示來設定裝置群組的 preferencedfailback 選項。

  6. 確認磁碟裝置群組性質變更成功。

    請查詢下列指令顯示的裝置群組資訊。


    # scconf -p 
    

範例—變更磁碟裝置群組屬性

以下範例顯示 scconf 指令 (scsetup 在設定磁碟裝置群組 dg-schost-1 的性質值時所產生)。


# scconf -c -D name=dg-schost-1,nodelist=phys-schost-1:phys-schost-2,\
preferenced=true,failback=enabled,numsecondaries=1

# scconf -p | grep Device
Device group name:                             dg-schost-1
   Device group type:                          SDS
   Device group failback enabled:              yes
   Device group node list:                     phys-schost-1, phys-schost-2
   Device group ordered node list:             yes
   Device group desired number of secondaries: 1
   Device group diskset name:                  dg-schost-1

如何變更裝置群組所要的次要節點數目

裝置群組之次要節點的預設數目設定為 1。 這個設定會在主要節點故障時,用來指定裝置群組內可成為群組主要所有者的節點數目。 所要次要節點數目的值,可以設為介於一和裝置群組中非主要提供者節點數目之間的任何整數。

如果 numsecondaries 屬性改變,且此變更造成次要節點的實際數目與所要數目不符,則次要節點會新增或從裝置群組移除。

這個程序使用 scsetup( 1M) 來設定或重設 Solstice DiskSuite/Solaris Volume Manager或 VxVM 磁碟裝置群組的 numsecondaries 屬性。 請參閱 scconf_dg_rawdisk(1M)scconf_dg_sds( 1M)scconf_dg_svm( 1M) 以及 scconf_dg_vxvm(1M),以取得有關配置任何裝置群組時磁碟裝置群組選項的資訊。

  1. 成為叢集上任何節點的超級使用者。

  2. 執行 scsetup 公用程式。


    # scsetup
    

    顯示 Main Menu。

  3. 要使用磁碟裝置群組,請輸入 4 (裝置群組與容體)。

    會出現 Device Groups Menu。

  4. 若要變更裝置群組的主要屬性,請輸入 6 (變更裝置群組的主要屬性)。

    顯示 Change Key Properties Menu。

  5. 若要變更所要的次要節點數目,請輸入 2 (變更 numsecondaries 屬性)。

    依指示進行,同時輸入要為磁碟裝置群組配置的所要次要節點數目。 輸入適當的值之後,便會執行對應的 scconf 指令,並印出一份記錄,且使用者會返回前一個功能表。

  6. 確認磁碟裝置群組性質變更成功。

    請查詢下列指令所顯示的裝置群組資訊。


    # scconf -p 
    

範例—變更所要的次要節點數目

以下範例顯示當 scsetup 配置裝置群組 (dg-schost-1) 所要的次要節點數目時,所產生的 scconf 指令。 此範例假設磁碟群組及容體在先前便已建立。


# scconf -c -D name=phys-host-1,nodelist=phys-schost-1:phys-schost-2,phys-schost-3\
preferenced=true,failback=enabled,numsecondaries=1

# scconf -p | grep Device
Device group name:                             dg-schost-1
   Device group type:                          SDS/SVM
   Device group failback enabled:              yes
   Device group node list:                     phys-schost-1, phys-scost-2, phys-schost-3 
   Device group ordered node list:             yes
   Device group desired number of secondaries: 1
   Device group diskset name:                  dg-schost-1

以下範例顯示使用空字串值來配置次要節點的預設數目。 裝置群組將配置為使用預設值,即使預設值改變。


# scconf -c -D 
name=diskgrp1, nodelist=host1:host2:host3,
preferenced=false,failback=enabled,numsecondaries=
 # scconf -p | grep Device
Device group name:                             dg-schost-1
   Device group type:                          SDS/SVM
   Device group failback enabled:              yes
   Device group node list:                     phys-schost-1, phost-2, phys-schost-3
   Device group ordered node list:             yes
   Device group desired number of secondaries: 1
   Device group diskset name:                  dg-schost-1

如何列出磁碟裝置群組配置

不是超級使用者也能列出配置。

以下為三種您可以列出磁碟裝置群組配置資訊的方法。

  1. 使用 SunPlex Manager GUI。

    請參閱 SunPlex Manager 線上說明,以取得詳細資訊。

  1. 使用 scstat(1M) 列出磁碟裝置群組配置。


    % scstat -D
    

    使用 scconf(1M) 列出磁碟裝置群組配置。


    % scconf -p
    

範例—使用 scstat 列出磁碟裝置群組配置

使用 scstat -D 指令可顯示下列資訊。


-- Device Group Servers --
                         Device Group           Primary             Secondary
                         ------------           -------             ---------
  Device group servers:  phys-schost-2          -                   -
  Device group servers:  phys-schost-1          phys-schost-2       phys-schost-3
  Device group servers:  phys-schost-3          -                   -
-- Device Group Status --
                              Device Group          Status              
                              ------------          ------              
  Device group status:        phys-schost-2          Offline
  Device group status:        phys-schost-1          Online
  Device group status:        phys-schost-3          Offline

範例—使用 scconf 列出磁碟裝置群組配置

當您使用 scconf 指令時,請查詢列於裝置群組下方的資訊。


# scconf -p
...
Device group name: dg-schost-1
	Device group type:              SDS/SVM
	Device group failback enabled:  yes
	Device group node list:         phys-schost-2, phys-schost-3
	Device group diskset name:      dg-schost-1

如何切換裝置群組的主要節點

此程序也可以用於啟動非作用中的裝置群組 (使其連線)。

您也可將非作用中的裝置群組予以連線,或使用 SunPlex Manager GUI 切換裝置群組的主要節點。 請參閱 SunPlex Manager 線上說明,以取得詳細資訊。

  1. 成為叢集上任何節點的超級使用者。

  2. 使用 scswitch(1M) 切換磁碟裝置群組的主要節點。


    # scswitch -z -D disk-device-group -h node
    

    -z

    執行切換。

    -D disk-device-group

    指定要切換的裝置群組。

    -h node

    指定要切換至哪一個節點名稱, 此節點會成為新的主要節點。

  3. 確認磁碟裝置群組已經成功切換到新的主要節點。

    如果磁碟裝置群組已正確註冊,在使用以下指令時,將顯示新磁碟裝置群組的資訊。


    # scstat -D
    

範例—切換磁碟裝置群組的主要節點

以下範例顯示如何切換磁碟裝置群組的主要節點以及驗證變更。


# scswitch -z -D dg-schost-1 -h phys-schost-1
# scstat -D

-- Device Group Servers --
                          Device Group               Primary             Secondary
                         ------------                -------             ---------
Device group servers:    dg-schost-1                 phys-schost-1       phys-schost-2
 
-- Device Group Status --
                                Device Group              Status              
                              ------------                ------              
  Device group status:        dg-schost-1                 Online

如何使磁碟裝置群組進入維護狀態

使裝置群組進入維護狀態可避免在存取其中一個裝置時,裝置群組自動連線。 在完成需要所有 I/O 活動停止直到維修完成的維修程序後,您應使裝置群組處於維護狀態。 使裝置群組處於維護狀態也可避免資料流失,可確保當一個節點的磁碟組或磁碟群組在維修時,磁碟裝置群組不會連線到另一個節點上。


註解 –

您必須先停止所有存取裝置的動作、卸載所有相依檔案系統,之後才能使該裝置群組進入維護狀態。


  1. 使裝置群組進入維護狀態。


    # scswitch -m -D disk-device-group
    

  2. 如果所執行的維修程序需要磁碟組或磁碟群組的所有權,請以手動方式匯入該磁碟組或磁碟群組。

    用於 Solstice DiskSuite/Solaris Volume Manager:


    # metaset -C take -f -s diskset
    


    小心 – 小心 –

    如果您掌管 Solstice DiskSuite/Solaris Volume Manager磁碟組的所有權,當裝置群組處於維護狀態時,就必須使用 metaset -C take 指令。 使用 metaset -t 會使裝置群組以部分所有權形式恢復連線。 如果您要匯入 VxVM 磁碟群組,必須在匯入磁碟群組時使用 -t 旗標。 如此可避免在此節點重新啟動時,產生自動匯入磁碟群組的情形。


    針對 VERITAS Volume Manager:


    # vxdg -t import disk-group-name
    

  3. 完成任何需要執行的維修程序。

  4. 釋放磁碟組或磁碟群組的所有權。


    小心 – 小心 –

    讓磁碟裝置群組脫離維護狀態前,您必須釋放磁碟組或磁碟群組的所有權。 未完成此程序將可能造成資料流失。


    • 用於 Solstice DiskSuite/Solaris Volume Manager:


      # metaset -C release -s diskset
      

    • 針對 VERITAS Volume Manager:


      # vxdg deport disk-group-name
      

  5. 使磁碟裝置群組進入連線狀態。


    # scswitch -z -D disk-device-group -h node
    

範例—使磁碟裝置群組進入維護狀態

以下範例顯示如何使磁碟裝置群組 dg-schost-1 進入維護狀態,以及解除磁碟裝置群組的維護狀態。


[Place the disk device group in maintenance state.]
# scswitch -m -D dg-schost-1
 
[If needed, manually import the diskset or disk group.]
For Solstice DiskSuite/Solaris Volume Manager:
  # metaset -C take -f -s dg-schost-1
For VERITAS Volume Manager:
  # vxdg -t import dg1
  
[Complete all necessary repair procedures.]
  
[Release ownership.]
For Solstice DiskSuite/Solaris Volume Manager:
  # metaset -C release -s dg-schost-1
For VERITAS Volume Manager:
  # vxdg deport dg1
  
[Bring the disk device group online.]
# scswitch -z -D dg-schost-1 -h phys-schost-1

管理叢集檔案系統

叢集檔案系統是一個可以從叢集的任一節點讀取與存取的整體可用檔案系統。

表 4–3 對應作業: 管理叢集檔案系統

作業  

如需相關說明,請參閱 …  

初次安裝 Sun Cluster 之後新增叢集檔案系統  

- 使用 newfs(1M)mkdir

如何新增叢集檔案系統

移除叢集檔案系統  

- 使用 fuser(1M)umount(1M)

如何移除叢集檔案系統

檢查叢集中整體裝載點跨節點的一致性  

- 使用 sccheck(1M)

如何檢查叢集中的整體裝載

如何新增叢集檔案系統

初次安裝 Sun Cluster 後,請對建立的每一個叢集檔案系統執行這個程序。


小心 – 小心 –

請務必指定正確的磁碟裝置名稱。 建立叢集檔案系統會毀損該磁碟中的所有資料。 如果您指定錯誤的裝置名稱,您可能會消除不想刪除的資料。


新增其他叢集檔案系統的必備條件如下:

如果您已使用 SunPlex Manger 來安裝資料服務,而且有足夠用來建立叢集檔案系統的共用磁碟,那麼就已經有一個或多個叢集檔案系統存在了。

  1. 成為叢集中任何節點的超級使用者。


    提示 –

    若要快速建立檔案系統,請在您想建立檔案系統之整體裝置的現行主要節點上成為超級使用者。


  2. 使用 newfs 指令建立檔案系統。


    註解 –

    newfs 指令只有在建立新的 UFS 檔案系統時才有效。 要建立新的 VxFS 檔案系統,請遵循 VxFS 說明文件中所列的程序。



    # newfs raw-disk-device
    

    下表顯示 raw-disk-device 引數的名稱範例。 請注意,每個容體管理程式的命名慣例都不一樣。

    表 4–4 原始磁碟裝置名稱範例

    如果您的容體管理程式是 …  

    磁碟裝置名稱可能是 …  

    說明 

    Solstice DiskSuite/Solaris Volume Manager 

    /dev/md/oracle/rdsk/d1

    原始磁碟裝置 d1,在 oracle 磁碟組內。

    SPARC︰VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    原始磁碟裝置 vol01,在 oradg 磁碟組內 。

    無 

    /dev/global/rdsk/d1s3

    區塊片段 d1s3 的原始磁碟裝置。

  3. 在叢集的每一個節點上,建立叢集檔案系統的裝載點目錄。

    每一個節點均需要一個裝載點,即使不會從此節點存取叢集檔案系統。


    提示 –

    為方便管理,請在 /global/device-group 目錄中建立裝載點。 這個位置可讓您容易區分叢集檔案系統是整體可用或本機檔案系統。



    # mkdir -p /global/device-group/mountpoint
    
    device-group

    與包含裝置的裝置群組名稱相對應的目錄名稱。

    mountpoint

    要裝載叢集檔案系統的目錄名稱。

  4. 在叢集的每一個節點上,在 /etc/vfstab 檔加入裝載點的項目。

    1. 使用下列的必要裝載選項。


      註解 –

      記錄對所有的叢集檔案系統是必要的。


      • Solaris UFS logging – 使用 global,logging 裝載選項。 請參閱 mount_ufs (1M) 線上援助頁,以取得關於 UFS 裝載選項的其他資訊。


        註解 –

        syncdir 裝載選項對於 UFS 叢集檔案系統而言並非必要。 如果指定 syncdir,您可以獲得保證的 POSIX 相容檔案系統功能。 如果沒有指定,您所看到功能將會與 UFS 檔案系統相同。 當未指定 syncdir 時,可以明顯地增進配置磁碟區塊的寫入功能,例如在檔案中附加資料的情況時。 但在某些情況下,如果沒有 syncdir,除非您關閉檔案,否則將不會發現空間不足的狀況。 您不指定 syncdir 就會出現問題的情況很少。 使用 syncdir (和 POSIX 功能),在關閉之前就可發現空間不足的狀況。


      • Solstice DiskSuite/Solaris Volume Manager異動複合裝置或異動容體 – 使用 global 裝載選項 (請不要使用 logging 裝載選項)。 請參閱您的 Solstice DiskSuite/Solaris Volume Manager說明文件,以取得有關設定異動複合裝置及異動容體的資訊。


        註解 –

        異動容體已排程好,要從 Solaris 作業環境中轉移至新的 Solaris 版次中。 從 Solaris 8 版次開始有的 Solaris UFS 記錄提供了相同的功能,但是效能更佳,還能減少系統管理需求及負擔。


      • VxFS 記錄 – 使用 globallog 裝載選項。 請參閱 VxFS 軟體隨附的 mount_vxfs 線上說明手冊,以取得詳細資訊。

    2. 若要自動裝載叢集檔案系統,請將 mount at boot 欄位設定為 yes

    3. 對每一個叢集檔案系統,確定其 /etc/vfstab 項目中的資訊在每一個節點上都相同。

    4. 請確定每一個節點的 /etc/vfstab 檔案中的項目是以相同次序列示裝置。

    5. 檢查檔案系統的啟動順序相依關係。

      例如,考慮以下情況,phys-schost-1 裝載磁碟裝置 d0/global/oracle 上,而 phys-schost-2 則裝載磁碟裝置 d1/global/oracle/logs 上。 使用這種配置,phys‐schost‐2 只能在 phys‐schost‐1 啟動和裝載 /global/oracle 之後,才能啟動和裝載 /global/oracle/logs

    請參閱 vfstab(4) 線上援助頁,以取得詳細資訊。

  5. 在叢集的任一節點上,驗證裝載點存在而且 /etc/vfstab 檔案項目在叢集的所有節點上都正確。


    # sccheck
    

    如果沒有錯誤,則沒有執行動作。

  6. 從叢集的任一節點裝載叢集檔案系統。


    # mount /global/device-group/mountpoint
    

  7. 在叢集的每一個節點上,驗證叢集檔案系統已經裝載。

    您可以使用 dfmount 指令來列出已裝載的檔案系統。

    若要在 Sun Cluster 環境中管理 VxFS 叢集檔案系統,您只能從裝載 VxFS 叢集檔案系統的主要節點上執行管理指令。

範例—新增叢集檔案系統

以下範例在 Solstice DiskSuite/Solaris Volume Manager複合裝置 /dev/md/oracle/rdsk/d1 上建立 UFS 叢集檔案系統。


# newfs /dev/md/oracle/rdsk/d1
...
 
[on each node:]
# mkdir -p /global/oracle/d1
 
# vi /etc/vfstab
#device                device                 mount            FS  fsck  mount   mount
#to mount              to fsck                point           type pass  at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs  2    yes global,logging
[save and exit]
 
[on one node:]
# sccheck
# mount /dev/md/oracle/dsk/d1 /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 2001

如何移除叢集檔案系統

您只要執行卸載,便可以移除叢集檔案系統。 如果您還要移除或刪除資料,請從系統移除基礎磁碟裝置 (或複合裝置或容體)。


註解 –

當您執行 scshutdown( 1M) 來停止整個叢集時,叢集檔案系統會自動卸載,如同系統關機程序的一部分。 當您執行 shutdown 來停止單一節點時,不會卸載叢集檔案系統。 不過,如果要關機的節點是唯一連到磁碟的節點,則對該磁碟上叢集檔案系統的任何存取都會導致錯誤。


卸載叢集檔案系統的必備條件如下︰

  1. 成為叢集中任何節點的超級使用者。

  2. 判斷哪些叢集檔案系統已經裝載。


    # mount -v
    

  3. 在每一個節點上列示使用叢集檔案系統的所有程序,從而得知您要停止的程序。


    # fuser -c [ -u ] mountpoint
    

    -c

    產生檔案系統之裝載點以及所裝載之檔案系統內之檔案的報告。

    -u

    (選用性) 顯示每一個處理 ID 的使用者登入名稱。

    mountpoint

    指定您要停止處理的叢集檔案系統名稱。

  4. 在每一個節點上,停止叢集檔案系統的所有處理。

    請使用慣用的方法停止處理。 如果必要,請使用以下指令來強迫結束與叢集檔案系統關聯的處理。


    # fuser -c -k mountpoint
    

    將會傳送 SIGKILL 給每一個使用叢集檔案系統的處理。

  5. 在每個節點上,確認沒有其他程序正在使用檔案系統。


    # fuser -c mountpoint
    

  6. 從一個節點卸載檔案系統。


    # umount mountpoint
    

    mountpoint

    指定您要卸載的叢集檔案系統名稱, 這可以是裝載叢集檔案系統的目錄名稱,也可以是檔案系統的裝置名稱路徑。

  7. (選用性) 編輯 /etc/vfstab 檔,刪除要移除之叢集檔案系統的項目。

    請對每一個 /etc/vfstab 檔中含有該叢集檔案系統項目的叢集節點,執行這個步驟。

  8. (選用性) 移除磁碟裝置 group/metadevice/plex。

    請參閱容體管理程式說明文件,以取得詳細資訊。

範例—移除叢集檔案系統

以下範例移除裝載於 Solstice DiskSuite/Solaris Volume Manager複合裝置 /dev/md/oracle/rdsk/d1 的 UFS 叢集檔案系統。


# mount -v
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles 
# fuser -c /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c -k /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c /global/oracle/d1
/global/oracle/d1:
# umount /global/oracle/d1
 
(on each node, remove the highlighted entry:)
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
[Save and exit.]

註解 –

要移除叢集檔案系統上的資料,請移除其基礎裝置。 請參閱容體管理程式說明文件,以取得詳細資訊。


如何檢查叢集中的整體裝載

sccheck (1M) 公用程式可確認 /etc/vfstab 檔中叢集檔案系統項目的語法。 如果沒有錯誤,則沒有執行動作。


註解 –

請在進行影響裝置或容體管理元件的叢集配置變更 (例如移除叢集檔案系統) 後執行 sccheck


  1. 成為叢集中任何節點的超級使用者。

  2. 檢查叢集整體裝載。


     # sccheck
    

管理磁碟路徑監視

磁碟路徑監視 (DPM) 管理指令可讓您收到次要磁碟路徑故障的通知。 使用本節中的程序來執行與監視磁碟路徑關聯的管理作業。 請參閱Sun Cluster 概念指南 (適用於 Solaris 作業系統)中的「管理與應用程式開發主要概念」,以取得有關磁碟路徑監視常駐程式的概念性資訊。 請參閱 scdpm(1M) 線上說明手冊,以取得scdpm 指令選項與相關指令的說明。 請參閱 syslogd(1M) 線上說明手冊,以取得由常駐程式報告的記錄錯誤。


註解 –

當使用 scgdevs 指令或 scdidadm 指令將 I/O 裝置新增至某個節點時,磁碟路徑會自動新增至受監視的監視清單中。 當使用 Sun Cluster 指令從某個節點移除裝置時,磁碟路徑也會自動取消監視。


表 4–5 對應作業: 管理磁碟路徑監視

作業  

相關章節  

使用 scdpm 指令監視磁碟路徑

如何監視磁碟路徑

使用 scdpm 指令取消監視磁碟路徑

如何取消監視磁碟路徑

使用 scdpm 指令列印節點的故障磁碟路徑的狀態

如何列印故障磁碟路徑

使用 scdpm -f 指令監視或取消監視檔案的磁碟路徑

如何監視檔案的磁碟路徑

以下一節中的程序會發出具有磁碟路徑引數的指令 scdpm。 磁碟路徑引數總是由節點名稱與磁碟名稱構成。 如果未指定任何節點,則不需要節點名稱,而預設為 all。 下表說明了用於命名磁碟路徑的慣例。


註解 –

極力建議您使用全域磁碟路徑名稱,因為全域磁碟路徑名稱在整個叢集中是一致的。 UNIX 磁碟路徑名稱在整個叢集中是不一致的。 一個磁碟的 UNIX 磁碟路徑在叢集節點之間可以不同。 磁碟路徑可以在一個節點上為 c1t0d0,而在另一個節點上為 c2t0d0。 如果您使用 UNIX 磁碟路徑名稱,請在發出 DPM 指令之前,使用 scdidadm -L 指令將 UNIX 磁碟路徑名稱對應至全域磁碟路徑名稱。 請參閱 scdidadm( 1M) 線上援助頁。


表 4–6 範例磁碟路徑名稱

名稱類型  

範例磁碟路徑名稱 

說明 

整體磁碟路徑  

phys-schost-1:/dev/did/dsk/d1

phys-schost-1 節點上的磁碟路徑 d1

all:d1

叢集內所有節點上的磁碟路徑 d1

UNIX 磁碟路徑  

phys-schost-1:/dev/rdsk/c0t0d0s0

phys-schost-1 節點上的磁碟路徑 c0t0d0s0

phys-schost-1:all

phys-schost-1 節點上的所有磁碟路徑

所有磁碟路徑 

all:all

叢集中所有節點上的全部磁碟路徑 

如何監視磁碟路徑

執行此作業以監視叢集中的磁碟路徑。


小心 – 小心 –

在執行 Sun Cluster 3.1 5/03 軟體 之前發行的舊版本的節點上不支援 DPM。 當進行滾動升級時,請勿使用 DPM 指令。 在升級了所有節點後,節點必須在線上才能使用 DPM 指令。


  1. 成為叢集中任何節點的超級使用者。

  2. 使用 scdpm 指令監視磁碟路徑。


    # scdpm -m node:disk path
    

    請參閱表 4–6,以取得 node:disk path 引數的命名慣例。

  3. 確認已監視磁碟路徑。


    # scdpm -p node:all	     
    

範例—監視單一節點的磁碟路徑

以下範例監視單一節點的 schost-1:/dev/did/rdsk/d1 磁碟路徑。 僅節點 schost-1 上的 DPM 常駐程式監視磁碟的路徑 /dev/did/dsk/d1


# scdpm -m schost-1:d1
# scdpm -p schost-1:d1
	     schost-1:/dev/did/dsk/d1   Ok

範例—監視所有節點的磁碟路徑

以下範例監視所有節點的 schost-1:/dev/did/dsk/d1 磁碟路徑。 在所有的節點上啟動 DPM,因為 /dev/did/dsk/d1 對於所有節點是一個有效路徑。


# scdpm -m all:/dev/did/dsk/d1
# scdpm -p schost-1:d1
	     schost-1:/dev/did/dsk/d1   Ok	    

範例—重新讀取 CCR 的磁碟配置

以下範例強制常駐程式讀取 CCR 的磁碟配置,並列印帶有狀態的監視磁碟路徑。


# scdpm -m all:all 
# scdpm -p all:all
		 schost-1:/dev/did/dsk/d4   Ok
	     schost-1:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d4   Fail
	     schost-2:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d5   Unmonitored
	     schost-2:/dev/did/dsk/d6   Ok

如何取消監視磁碟路徑

使用此程序取消監視磁碟路徑。


小心 – 小心 –

在執行 Sun Cluster 3.1 5/03 軟體 之前發行的舊版本的節點上不支援 DPM。 當進行滾動升級時,請勿使用 DPM 指令。 在升級了所有節點後,節點必須在線上才能使用 DPM 指令。


  1. 成為叢集中任何節點的超級使用者。

  2. 決定要取消監視的磁碟路徑之狀態。


    # scdpm -p [all:] disk path
    
    -p

    列印指定磁碟路徑之目前狀態的詳細清單

    [:all]

    顯示所有的已監視與已取消監視的磁碟路徑

  3. 在每一個節點上,取消監視適當的磁碟路徑。


    # scdpm -u  node:disk path
    

    請參閱表 4–6,以取得 node:disk path 引數的命名慣例。

範例—取消監視磁碟路徑

以下範例取消監視了 schost-2:/dev/did/rdsk/d1 磁碟路徑,並列印了帶有狀態的整個叢集磁碟路徑。


# scdpm -u schost-2:/dev/did/rdsk/d1
# scdpm -p all:all 
	     schost-1:/dev/did/dsk/d4   Ok
	     schost-1:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d4   Fail
	     schost-2:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d1   Unmonitored
	     schost-2:/dev/did/dsk/d6   Ok

如何列印故障磁碟路徑

使用以下程序列印叢集中的故障磁碟路徑。


小心 – 小心 –

在執行 Sun Cluster 3.1 5/03 軟體 之前發行的舊版本的節點上不支援 DPM。 當進行滾動升級時,請勿使用 DPM 指令。 在升級了所有節點後,節點必須在線上才能使用 DPM 指令。


  1. 成為叢集中任何節點的超級使用者。

  2. 列印整個叢集中的故障磁碟路徑。


    # scdpm -p -F node:disk path
    

    請參閱表 4–6,以取得 node:disk path 引數的命名慣例。

範例—列印故障磁碟路徑

以下範例列印了整個叢集的故障磁碟路徑。


# scdpm -p -F [all:]all
		 schost-1:/dev/did/dsk/d4   Fail
	     schost-1:/dev/did/dsk/d3   Fail
	     schost-2:/dev/did/dsk/d4   Fail
	     schost-2:/dev/did/dsk/d3   Fail
	     schost-2:/dev/did/dsk/d5   Fail
	     schost-2:/dev/did/dsk/d6   Fail

如何監視檔案的磁碟路徑

使用以下程序監視或取消監視檔案的磁碟路徑。 檔案必須列出要監視或要取消監視的指令、節點名稱以及磁碟路徑名稱。 檔案的每個欄位應該以欄分隔。 透過以下範例格式化每一個清單。


syntax in command file:
[u,m] [node|all]:<[/dev/did/rdsk/]d- | [/dev/rdsk/]c-t-d- | all>

command file entry
u schost-1:/dev/did/rdsk/d5
m schost-2:all


小心 – 小心 –

在執行 Sun Cluster 3.1 5/03 軟體 之前發行的舊版本的節點上不支援 DPM。 當進行滾動升級時,請勿使用 DPM 指令。 在升級了所有節點後,節點必須在線上才能使用 DPM 指令。


  1. 成為叢集中任何節點的超級使用者。

  2. 監視檔案的磁碟路徑。


    # scdpm -f filename
    

  3. 確認帶有狀態的叢集磁碟路徑。


    # scdpm -p all:all
    	    
    

範例—監視或取消監視檔案的磁碟路徑

以下範例監視或取消監視檔案的磁碟路徑。


# scdpm -f schost_config
# scdpm -p all:all 
	     schost-1:/dev/did/dsk/d4   Ok
	     schost-1:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d4   Fail
	     schost-2:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d5   Unmonitored
	     schost-2:/dev/did/dsk/d6   Ok