Sun Cluster 系統管理指南 (適用於 Solaris 作業系統)

管理磁碟裝置群組

scsetup(1M) 公用程式對於 scconf(1M) 指令是一個互動式介面。scsetup 會產生 scconf 指令。產生的指令會在部分程序範例的尾端顯示。


注意 –

Sun Cluster 軟體會自動為叢集中的每一個磁碟及磁帶裝置建立原始磁碟裝置群組。不過叢集裝置群組仍會維持離線狀態,除非您以整體裝置來存取群組。


表 4–2 作業清單:管理磁碟裝置群組

工作 

如需相關說明,請參閱 … 

更新整體裝置名稱空間 (不含重新配置的重新開機) 

- 使用 scgdevs(1M)

如何更新整體裝置名稱空間

增加 Solstice DiskSuite/Solaris Volume Manager 磁碟組,並將其註冊為磁碟裝置群組 

- 使用 metaset(1M)

如何新增與註冊磁碟裝置群組 (Solstice DiskSuite/Solaris Volume Manager)

從配置中移除 Solstice DiskSuite/Solaris Volume Manager磁碟裝置群組 

- 使用 metasetmetaclear(1M)

如何移除及註銷磁碟裝置群組 (Solstice DiskSuite/Solaris Volume Manager)

從所有磁碟裝置群組移除節點 

- 使用 scconfmetasetscsetup

如何從所有磁碟裝置群組移除節點

從 Solstice DiskSuite/Solaris Volume Manager磁碟裝置群組移除節點 

- 使用 metaset

如何從磁碟裝置群組移除節點 (Solstice DiskSuite/Solaris Volume Manager)

SPARC:將 VERITAS Volume Manager磁碟群組新增為磁碟裝置群組 

- 使用 VxVM 指令和 scsetup(1M)

SPARC: 如何在初始化磁碟 (VERITAS Volume Manager) 時建立新的磁碟群組

 

SPARC: 如何在封裝磁碟時建立新的磁碟群組 (VERITAS Volume Manager)

 

SPARC: 如何新增新的容體至現有的磁碟裝置群組 (VERITAS Volume Manager)

 

SPARC: 如何將現有的磁碟群組加入磁碟裝置群組 (VERITAS Volume Manager)

 

SPARC: 如何指定磁碟裝置群組的新次要編號 (VERITAS Volume Manager)

 

SPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)

 

SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)

SPARC:從配置中移除 VERITAS Volume Manager磁碟裝置群組 

- 使用 scsetup (以產生 scconf)

SPARC: 如何從磁碟裝置群組 (VERITAS Volume Manager) 移除容體

 

SPARC: 如何移除及註銷磁碟裝置群組 (VERITAS Volume Manager)

SPARC:新增節點至 VERITAS Volume Manager磁碟裝置群組 

- 使用 scsetup 以產生 scconf

SPARC: 如何新增節點至磁碟裝置群組 (VERITAS Volume Manager)

SPARC:從 VERITAS Volume Manager磁碟裝置群組移除節點 

- 使用 scsetup 以產生 scconf

SPARC: 如何從磁碟裝置群組移除節點 (VERITAS Volume Manager)

從原始磁碟裝置群組移除節點 

- 使用 scconf(1M)

SPARC: 如何從原始磁碟裝置群組移除節點

變更磁碟裝置群組屬性 

- 使用 scsetup 以產生 scconf

如何變更磁碟裝置屬性

顯示磁碟裝置群組與屬性 

- 使用 scconf

如何列出磁碟裝置群組配置

變更裝置群組的所需次要節點數目 

- 使用 scsetup 以產生 scconf

如何變更裝置群組所要的次要節點數目

切換磁碟裝置群組的主要節點 

- 使用 scswitch(1M)

如何切換裝置群組的主要節點

使磁碟裝置群組進入維護狀態 

- 使用 metasetvxdg

如何使磁碟裝置群組進入維護狀態

如何更新整體裝置名稱空間

增加新的全域裝置時,透過執行 scgdevs(1M) 手動更新全域裝置名稱空間。


注意 –

如果執行指令的節點目前不是叢集成員,那麼 scgdevs 指令便不會有任何效果。如果未掛載 /global/.devices/node@nodeID 檔案系統,指令同樣不會有效果。


  1. 成為叢集上任何節點的超級使用者。

  2. 使用 scgdevs 指令重新配置名稱空間。


    # scgdevs
    

範例—更新整體裝置名稱空間

以下範例顯示執行 scgdevs 成時產生的輸出。


# scgdevs 
Configuring the /dev/global directory (global devices)...
obtaining access to all attached disks
reservation program successfully exiting

如何新增與註冊磁碟裝置群組 (Solstice DiskSuite/Solaris Volume Manager)

使用metaset 指令建立 Solstice DiskSuite/Solaris Volume Manager 磁碟組並將其註冊為 Sun Cluster 磁碟裝置群組。註冊磁碟組時,您指定給磁碟組的名稱會自動指定給磁碟裝置群組。

  1. 在連接您要建立磁碟組之磁碟的節點上成為超級使用者。

  2. 計算配置所需的 Solstice DiskSuite 元式裝置或 Solaris Volume Manager 容體的名稱數,並在每個節點上修改 /kernel/drv/md.conf 檔案。

    請參閱Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)中的「如何設定元式裝置名稱或容體名稱與磁碟組的數目」。

  3. 使用 metaset(1M) 指令增加 Solstice DiskSuite/Solaris Volume Manager 磁碟組,並將其註冊為具備 Sun Cluster 的磁碟裝置群組。若要建立多擁有者群組,請使用 –M 選項。


    # metaset -s diskset -a -M -h nodelist
    

    -s diskset

    指定要建立的磁碟組。

    -a -h nodelist

    增加可控制磁碟組的節點清單。

    -M

    指定磁碟群組為多擁有者。


    注意 –

    在叢集上執行 metaset 指令來建立「Solstice DiskSuite/Solaris 容體管理程式」裝置群組,根據預設將會產生一個次要節點,不論該裝置群組中所含的節點數目為何。在建立裝置群組後,您可以使用 scsetup(1M) 公用程式來變更所要的次要節點數目。請參閱如何變更裝置群組所要的次要節點數目,以取得有關磁碟故障轉移的詳細資訊。


  4. 確認磁碟裝置群組是否新增成功。

    磁碟裝置群組名稱會與使用 metaset 指定的磁碟組名稱匹配。


    # scconf -p | grep disk-device-group
    

範例—新增 Solstice DiskSuite/Solaris Volume Manager磁碟裝置群組

以下範例顯示了磁碟組與磁碟裝置群組的建立,並確認磁碟裝置群組已經建立。


# metaset -s dg-schost-1 -a -h phys-schost-1
# scconf -p | grep dg-schost-1
Device group name: dg-schost-1

如何移除及註銷磁碟裝置群組 (Solstice DiskSuite/Solaris Volume Manager)

磁碟裝置群組是已透過 Sun Cluster 註冊的 Solstice DiskSuite/Solaris Volume Manager磁碟組。若要移除 Solstice DiskSuite/Solaris Volume Manager磁碟裝置群組,請使用 metaclearmetaset 指令。這些指令會移除相同名稱的磁碟裝置群組,並註銷其 Sun Cluster 磁碟裝置群組的身份。

請參閱 Solstice DiskSuite/Solaris Volume Manager說明文件,以取得移除磁碟組的步驟。

如何從所有磁碟裝置群組移除節點

使用此程序移除所有磁碟裝置群組 (該群組列出了潛在主要節點清單中的節點) 中的叢集節點。

  1. 在所有磁碟裝置群組中您要移除的潛在主要節點上成為超級使用者。

  2. 判斷要移除其節點的磁碟裝置群組是否為成員。

    裝置群組節點清單中尋找每一個磁碟裝置群組的節點名稱。


    # scconf -p | grep ?Device group"
    

  3. 是否有任何在步驟 2 找到的磁碟裝置群組屬於 SDS/SVM 裝置群組類型?

  4. 是否有任何在步驟 2 找到的磁碟裝置群組屬於 VxVM 裝置群組類型?

  5. 決定要移除其成員節點的原始磁碟裝置群組。

    請注意,下列指令包含了兩個 “v”,-pvv。要顯示原始磁碟裝置群組需要第二個 “v”。


    # scconf -pvv | grep ?Device group?
    

  6. 是否有任何在步驟 5 中列出的磁碟裝置群組屬於 DiskLocal_Disk,或同時屬於這兩種裝置群組類型?

  7. 確認節點已從所有磁碟裝置群組的潛在主要節點中移除。

    如果節點不再列為任何磁碟裝置群組的潛在主要節點,則此項指令不會傳回任何訊息。


    # scconf -pvv | grep ?Device group? | grep nodename
    

如何從磁碟裝置群組移除節點 (Solstice DiskSuite/Solaris Volume Manager)

使用此程序從 Solstice DiskSuite/Solaris Volume Manager磁碟裝置群組的潛在主要節點清單中,移除一個叢集節點。請為每一個您想要移除節點的磁碟裝置群組,重複執行 metaset 指令。

  1. 確認節點仍然是群組的成員,且群組為 SDS/SVM 裝置群組。

    SDS/SVM 裝置群組類型表示一個 Solstice DiskSuite/Solaris Volume Manager磁碟裝置群組。


    phys-schost-1% scconf -pv | grep '(global-galileo)'
      (global-galileo) Device group type:              SDS/SVM
      (global-galileo) Device group failback enabled:  no
      (global-galileo) Device group node list:         phys-schost-1, phys-schost-2
      (global-galileo) Diskset name:                   global-galileo
    phys-schost-1%

  2. 判斷哪一個節點是裝置群組目前的主要節點。


    # scstat -D
    
  3. 在目前擁有您要修改之磁碟裝置群組的節點上成為超級使用者。

  4. 從磁碟裝置群組移除節點的主機名稱。


    # metaset -s setname -d -h nodelist
    

    -s setname

    指定磁碟裝置群組名稱

    -d

    從磁碟裝置群組移除含有 -h 的節點。

    -h nodelist

    從可以主控磁碟裝置群組的節點清單中移除節點


    注意 –

    更新可能需要數分鐘才能夠完成。


    如果指令失敗,則將 -f ([強制]) 選項加入指令中。


    # metaset -s setname -d -f -h nodelist
    

  5. 請為其所要移除節點為潛在主要節點的每一個磁碟裝置群組,重複步驟 4

  6. 確認節點已從磁碟裝置群組中移除。

    磁碟裝置群組名稱會與使用 metaset 指定的磁碟組名稱匹配。


    phys-schost-1% scconf -pv |grep   
    Device group node list:  phys-schost-1, phys-schost-2, phys-schost-1%

範例—從磁碟裝置群組移除節點 (Solstice DiskSuite/Solaris Volume Manager)

下列範例顯示如何從磁碟裝置群組配置移除主機名稱 phys-schost-2 。這個範例刪除成為指定磁碟裝置群組中潛在主要節點的 phys-schost-2 。執行 scstat- D 指令,以確認節點移除。檢查移除的節點不再顯示於螢幕文字中。


[Determine the Solstice DiskSuite/Solaris Volume Manager
 disk device group(2) for the node:]
# scconf -pv | grep Device
  Device group name:                 dg-schost-1
    Device group type:               SDS/SVM
    Device group failback enabled:   no
    Device group node list:          phys-schost-1, phys-schost-2
    Device group ordered node list:  yes
    Device group diskset name:    	         dg-schost-1
[Determine the disk device group(s) for the node:]
# scstat -D
  -- Device Group Servers --
                       Device Group  Primary        Secondary
                       ------------  -------        ---------
  Device group servers: dg-schost-1  phys-schost-1  phys-schost-2
[Become superuser.]
[Remove the hostname from the disk device group:]
# metaset -s dg-schost-1 -d -h phys-schost-2
[Verify removal of the node:]
phys-schost-1% scconf -pv |grep
 Device Group Servers --
                       Device Group  Primary        Secondary
                       ------------  -------        ---------
Device group node list: dg-schost-1, phys-schost-2,  

如何在叢集中建立三個以上的磁碟組

如果您想在叢集中建立三個以上的磁碟組,請在建立磁碟組之前執行下列步驟。如果您是第一次安裝磁碟組,或是要增加更多磁碟組到已完全配置的叢集中,請遵循這些步驟進行。

  1. 確認 md_nsets 變數的值夠高。這個值應大於您想要在叢集中建立的磁碟組總數。

    1. 在叢集的任何節點上,檢查 md_nsets 變數值,該變數值位於 /kernel/drv/md.conf 檔中。

    2. 如果叢集中的磁碟組總數大於現有的 md_nsets 負值,請增加每個節點的 md_nsets 值。

      可允許的最大磁碟組數目是 md_nsets 的值減一。md_nsets 的最大值為 32。

    3. 確定 /kernel/drv/md.conf 檔在叢集的每個節點上都相同。


      注意 – 注意 –

      未遵循此準則會導致嚴重的 Solstice DiskSuite/Solaris Volume Manager錯誤和可能的資料遺失。


    4. 在某一個節點上關閉叢集。


      # scshutdown -g0 -y
      

    5. 重新啟動叢集中的每個節點。

      • SPARC:


        ok boot
        

      • x86:


                              <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                          <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b
        

  2. 在叢集的每一個節點上執行 devfsadm(1M) 指令。

    您可以在叢集的所有節點上同時執行此指令。

  3. 從叢集的一個節點執行 scgdevs(1M) 指令。

  4. 在每個節點上,確認在您嘗試建立任何磁碟組之前,scgdevs 指令已完成。

    scgdevs 指令在所有節點上自行遠端呼叫,即使只從一個節點執行指令也是如此。若要判斷 scgdevs 指令是否已經完成作業,請在叢集的每個節點上執行下列指令。


    % ps -ef | grep scgdevs
    

SPARC: 如何在初始化磁碟 (VERITAS Volume Manager) 時建立新的磁碟群組


注意 –

這個程序只適用於起始磁碟。如果您要密封磁碟,請使用 SPARC: 如何在封裝磁碟時建立新的磁碟群組 (VERITAS Volume Manager) 的程序。


新增 VxVM 磁碟群組之後,您必須註冊磁碟裝置群組。

如果您使用 VxVM 來設定 Oracle Parallel Server or Oracle Real Application Clusters 的共用磁碟群組,請使用「VERITAS 容體管理程式管理指南」中所述的 VxVM 叢集功能。

  1. 實體連結至磁碟的任何節點上成為超級使用者,這些磁碟組成要增加的磁碟群組。

  2. 建立 VxVM 磁碟群組與容體。

    使用您喜好的方法來建立磁碟群組與容體。


    注意 –

    如果您正在設定鏡像容體,可在發生節點故障時使用「已使用區域記錄」(DRL) 來減少容體回復時間。但是,DRL 可能會降低 I/O 產量。


    請參閱 VERITAS Volume Manager說明文件,以取得完成此步驟的程序。

  3. 將 VxVM 磁碟群組註冊為 Sun Cluster 磁碟裝置群組。

    請參閱 SPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)

    請不要使用叢集框架來註冊 Oracle Parallel Server or Oracle Real Application Clusters 共用磁碟群組。

SPARC: 如何在封裝磁碟時建立新的磁碟群組 (VERITAS Volume Manager)


注意 –

這個程序只適用於封裝磁碟。如果您要起始磁碟,請使用SPARC: 如何在初始化磁碟 (VERITAS Volume Manager) 時建立新的磁碟群組 的程序。


您可以將非根磁碟加入 Sun Cluster 磁碟裝置群組,方法是先將磁碟封裝為 VxVM 磁碟群組,然後將磁碟群組註冊為 Sun Cluster 磁碟裝置群組。

只有在起始建立 VxVM 磁碟群組時才支援磁碟封裝。在建立 VxVM 磁碟群組並將其註冊為 Sun Cluster 磁碟裝置群組之後,便只有可起始的磁碟才應加入磁碟群組中。

如果您使用 VxVM 來設定 Oracle Parallel Server or Oracle Real Application Clusters 的共用磁碟群組,請使用「VERITAS 容體管理程式管理指南」中所述的 VxVM 叢集功能。

  1. 成為叢集上任何節點的超級使用者。

  2. 如果密封的磁碟在 /etc/vfstab 檔中有系統檔案項目,請確定 mount at boot 選項被設為 no

    一旦磁碟已封裝並註冊為 Sun Cluster 磁碟裝置群組,就請設回 yes

  3. 封裝磁碟。

    使用 vxdiskadm 功能表或圖形化使用者介面來封裝磁碟。VxVM 需要在磁碟開頭或結尾處有二個可用分割區以及未指定的磁柱。片段 2 也必須設定成整個磁碟。請參閱 vxdiskadm(1M) 線上說明手冊,以取得詳細資訊。

  4. 先關閉再重新啟動節點。

    scswitch(1M) 指令會將所有的資源群組與裝置群組,從主要節點切換到下一個喜好的節點。使用 shutdown 來關閉及重新啟動節點。


    # scswitch -S -h node[,...]
    # shutdown -g0 -y -i6
    

  5. 如有需要,將所有資源群組以及裝置群組切換回原來的節點。

    如果資源群組和裝置群組一開始便配置成故障返回主要節點,便不需要此步驟。


    # scswitch -z -D disk-device-group -h node[,...] 
    # scswitch -z -g resource-group -h node[,...] 
    

  6. 將 VxVM 磁碟群組註冊為 Sun Cluster 磁碟裝置群組。

    請參閱 SPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)

    請不要使用叢集框架來註冊 Oracle Parallel Server or Oracle Real Application Clusters 共用磁碟群組。

SPARC: 如何新增新的容體至現有的磁碟裝置群組 (VERITAS Volume Manager)

當您新增新的容體至現有的 VxVM 磁碟裝置群組時,請從線上磁碟裝置群組的主要節點執行此程序。


注意 –

新增容體之後,您需要使用SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager) 的程序來註冊配置變更。


  1. 成為叢集上任何節點的超級使用者。

  2. 決定您要新增新容體之磁碟裝置群組的主要節點。


    # scstat -D
    

  3. 如果磁碟裝置群組為離線狀態,請讓裝置群組上線。


    # scswitch -z -D disk-device-group -h node[,...]
    

    -z -D disk-device-group

    切換指定的裝置群組。

    -h node

    指定磁碟裝置群組要切換至哪個節點,此節點會成為新的主要節點。

  4. 從主要節點 (目前主控磁碟裝置群組的節點) 建立磁碟群組中的 VxVM 容體。

    請參閱 VERITAS Volume Manager說明文件,以取得建立 VxVM 容體的程序。

  5. 請註冊 VxVM 磁碟群組的變更,以更新全域名稱空間。

    請參閱 SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)

SPARC: 如何將現有的磁碟群組加入磁碟裝置群組 (VERITAS Volume Manager)

先將磁碟群組匯入目前的節點,然後將該磁碟群組註冊為 Sun Cluster 磁碟裝置群組,可以將現有的 VxVM 磁碟群組轉換為 Sun Cluster 磁碟裝置群組。

  1. 成為叢集上任何節點的超級使用者。

  2. 將 VxVM 磁碟群組匯入現行的節點。


    # vxdg import diskgroup
    

  3. 將 VxVM 磁碟群組註冊為 Sun Cluster 磁碟裝置群組。

    請參閱 SPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)

SPARC: 如何指定磁碟裝置群組的新次要編號 (VERITAS Volume Manager)

如果由於某個次要編號與其他磁碟群組衝突而導致磁碟裝置群組註冊失敗,則您必須為新的磁碟群組指定一個新的、未使用的次要編號。指定好新的次要編號後,請重新執行程序將磁碟群組註冊為 Sun Cluster 磁碟裝置群組。

  1. 成為叢集上任何節點的超級使用者。

  2. 決定使用中的次要編號。


    # ls -l /global/.devices/node@nodeid/dev/vx/dsk/*
    

  3. 選擇另一個未使用的 1000 倍數當作新磁碟群組的基本次要編號。

  4. 指定新的次要編號給磁碟群組。


    # vxdg reminor diskgroup base-minor-number
    

  5. 將 VxVM 磁碟群組註冊為 Sun Cluster 磁碟裝置群組。

    請參閱 SPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)

SPARC: 範例—如何指定磁碟裝置群組的新次要編號

本範例使用 16000-16002 與 4000-4001 次級號碼。vxdg reminor 指令用來將基本次級號碼 5000 指定給新的磁碟裝置群組。


# ls -l /global/.devices/node@nodeid/dev/vx/dsk/*
/global/.devices/node@nodeid/dev/vx/dsk/dg1
brw-------   1 root     root      56,16000 Oct  7 11:32 dg1v1
brw-------   1 root     root      56,16001 Oct  7 11:32 dg1v2
brw-------   1 root     root      56,16002 Oct  7 11:32 dg1v3
 
/global/.devices/node@nodeid/dev/vx/dsk/dg2
brw-------   1 root     root      56,4000 Oct  7 11:32 dg2v1
brw-------   1 root     root      56,4001 Oct  7 11:32 dg2v2
# vxdg reminor dg3 5000

SPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)

此程序使用 scsetup(1M) 公用程式將關聯的 VxVM 磁碟群組註冊為 Sun Cluster 磁碟裝置群組。


注意 –

磁碟裝置群組在叢集註冊之後,請勿使用 VxVM 指令匯入或撤出 VxVM 磁碟群組。如果您在 VxVM 磁碟群組或容體做變更,請使用程序SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager) 來註冊磁碟裝置群組配置的變更,這個程序可以確保全域名稱空間處於正確的狀態。


註冊 VxVM 磁碟裝置群組的必備條件如下:

當您定義偏好的順序之後,當發生最慣用的節點關機而稍後返回叢集時,還可以指定是否要將磁碟裝置切換回最偏好的節點。

請參閱 scconf(1M),以取得節點喜好設定以及故障回復選項的更多資訊。

非主要叢集節點 (備用) 會根據節點偏好順序轉換為次要節點。裝置群組預設的次要節點數目通常設定為一。這個預設設定可將正常操作時,因多個次要節點的主要檢查點所導致的效能降級降到最低。例如,在擁有四個節點的叢集中,預設上會配置一個主要、一個次要及兩個備用節點。請參閱SPARC: 如何設定次要節點所要的數目 (VERITAS Volume Manager)

  1. 成為叢集上任何節點的超級使用者。

  2. 輸入 scsetup 公用程式。


    # scsetup
    

    顯示 Main Menu。

  3. 若要使用 VxVM 磁碟裝置群組,請輸入 4 (裝置群組與容體)。

    會出現 Device Groups Menu。

  4. 若要註冊 VxVM 磁碟裝置群組,請輸入 1 (將 VxVM 磁碟群組註冊為裝置群組)。

    依指示進行,同時輸入要註冊為 Sun Cluster 磁碟裝置群組的 VxVM 磁碟群組名稱。

    如果您使用 VxVM 來設定 Oracle Parallel Server/Real Application Clusters 的共用磁碟群組,請勿以叢集框架來註冊共用磁碟群組。使用「VERITAS Volume Manager Administrator's Reference Guide」中所述的 VxVM 叢集功能。

  5. 如果您在試圖註冊磁碟裝置群組時發生下列錯誤,請重新指定磁碟裝置群組的次要編號。


    scconf: Failed to add device group - in use

    若要重新指定磁碟裝置群組的次要號碼,請使用程序 SPARC: 如何指定磁碟裝置群組的新次要編號 (VERITAS Volume Manager)。此程序可讓您指定新的次要編號,不與現存磁碟裝置群組所使用的次要編號相衝突。

  6. 驗證磁碟裝置群組是否已註冊且為連線狀態。

    如果磁碟裝置群組已正確註冊,在使用以下指令時,將顯示新磁碟裝置群組的資訊。


    # scstat -D
    


    注意 –

    如果您變更了任何在叢集註冊完成的 VxVM 磁碟群組或容體的配置資訊,則必須使用 scsetup(1M) 同步化磁碟裝置群組。此處所指的配置資訊變更包括新增或移除容體,以及變更現有容體的群組、擁有者或權限。配置變更後重新註冊可以確保全域名稱空間處於正確的狀態。請參閱 如何更新整體裝置名稱空間


SPARC: 範例—註冊 VERITAS Volume Manager磁碟裝置群組

以下範例為註冊 VxVM 磁碟裝置群組 dg1 時,scsetup 所產生的 scconf 指令及驗證步驟。此範例假設 VxVM 磁碟群組及容體在先前便已建立。


# scsetup

scconf -a -D type=vxvm,name=dg1,nodelist=phys-schost-1:phys-schost-2

# scstat -D
-- Device Group Servers --
                         Device Group      Primary           Secondary
                         ------------      -------           ---------
Device group servers:    dg1              phys-schost-1      phys-schost-2
 
-- Device Group Status --
                              Device Group        Status              
                              ------------        ------              
  Device group status:        dg1                 Online

SPARC: 下一步

若要在 VxVM 磁碟裝置群組上建立叢集檔案系統,請參閱如何增加叢集檔案系統

如果次要編號發生問題,請參閱SPARC: 如何指定磁碟裝置群組的新次要編號 (VERITAS Volume Manager)

SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)

當您變更 VxVM 磁碟群組或容體的任何配置資訊時,您需要註冊 Sun Cluster 磁碟裝置群組的配置變更。註冊可以確保全域名稱空間處於正確的狀態。

  1. 成為叢集中任何節點的超級使用者。

  2. 執行 scsetup(1M) 公用程式。


    # scsetup
    

    顯示 Main Menu。

  3. 若要使用 VxVM 磁碟裝置群組,請輸入 4 (裝置群組與容體)。

    會出現 Device Groups Menu。

  4. 若要註冊配置變更,請輸入 2 (同步化 VxVM 裝置群組的容體資訊)。

    請依指示進行,同時輸入已經變更配置的 VxVM 磁碟群組。

SPARC: 範例—註冊 VERITAS Volume Manager磁碟群組配置變更

以下範例顯示註冊變更的 VxVM 磁碟裝置群組 (dg1) 時,scsetup 所產生的 scconf 指令。此範例假設 VxVM 磁碟群組及容體在先前便已建立。


# scsetup
 
scconf -c -D name=dg1,sync

SPARC: 如何設定次要節點所要的數目 (VERITAS Volume Manager)

如果主要節點失敗,numsecondaries 屬性會指定可主控群組的裝置群組內的節點數目。裝置服務預設的次要節點數目為 1。這個值可以設定為介於 1 和裝置群組中運作的非主要提供者之節點數之間的任何整數。

在平衡叢集效能與可用性上,這個設定是很重要的因素。例如,增加所要的次要節點數目,可以增加裝置群組對抗叢集中同時發生多種故障的機會。不過,增加次要節點數目也會定期降低正常作業時的效能。較小的次要節點數目一般會產生較佳的效能,但是會降低可用性。不過,較大的次要節點數目卻不一定會使上述檔案系統或裝置群組具有較高的可用性。請參閱Sun Cluster 概念指南 (適用於 Solaris 作業系統)」中的「重要概念– 管理和應用程式開發」,以取得更多資訊。

  1. 成為叢集上任何節點的超級使用者。

  2. 執行 scsetup(1M) 公用程式。


    # scsetup
    

    顯示 Main Menu。

  3. 若要使用 VxVM 磁碟裝置群組,請輸入 4 (裝置群組與容體)。

    會出現 Device Groups Menu。

  4. 若要變更裝置群組的主要屬性,請輸入 6 (變更裝置群組的主要屬性)。

    顯示 Change Key Properties Menu。

  5. 若要變更所要的次要節點數目,請輸入 2 (變更 numsecondaries 屬性)。

    依指示進行,同時輸入要為磁碟裝置群組配置的所要次要節點數目。輸入適當的值之後,便會執行對應的 scconf 指令。接著會列印記錄,且使用者會返回上一個功能表。

  6. 使用 scconf -p 指令驗證裝置群組配置。


    # scconf -p | grep Device
    Device group name:                          dg-schost-1
    Device group type:                          VxVM
    Device group failback enabled:              yes
    Device group node list:                     phys-schost-1,phys-schost-2, phys-schost-3
    Device group ordered node list:             yes
    Device group desired number of secondaries: 1
    Device group diskset name:                  dg-schost-1


    注意 –

    如果您變更了任何在叢集註冊完成的 VxVM 磁碟群組或容體的配置資訊,必須使用 scsetup 來重新註冊磁碟裝置群組。此處所指的配置資訊變更包括新增或移除容體,以及變更現有容體的群組、擁有者或權限。配置變更後重新註冊可以確保全域名稱空間處於正確的狀態。請參閱 如何更新整體裝置名稱空間


  7. 確認磁碟裝置群組的主要節點及狀態。


    # scstat -D
    

SPARC: 範例—設定所要的次要節點數目 (VERITAS 容體管理程式)

以下範例顯示當 scsetup 配置裝置群組 (diskgrp1) 所要的次要節點數目時,所產生的 scconf 指令。請參閱如何變更裝置群組所要的次要節點數目,以取得建立裝置群組之後,變更所要的次要節點數目的相關資訊。


# scconf -a -D type=vxvm,name=diskgrp1, 
nodelist=host1:host2:host3,preferenced=true, \
failback=enabled,numsecondaries=2
 

SPARC: 如何從磁碟裝置群組 (VERITAS Volume Manager) 移除容體


注意 –

當您從磁碟裝置群組移除容體時,您必須使用SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager) 程序來註冊磁碟裝置群組的配置變更。


  1. 成為叢集上任何節點的超級使用者。

  2. 決定磁碟裝置群組的主要節點及狀態。


    # scstat -D
    

  3. 如果磁碟裝置群組處於離線狀態,請先恢復其連線。


    # scswitch -z -D disk-device-group -h node[,...]
    

    -z

    執行切換。

    -D disk-device-group

    指定要切換的裝置群組。

    -h node

    指定要切換至哪一個節點名稱,此節點會成為新的主要節點。

  4. 從主要節點 (目前主控磁碟裝置群組的節點) 移除磁碟群組中的 VxVM 容體。


    # vxedit -g diskgroup -rf rm volume
    

    -g diskgroup

    指定含有容體的 VxVM 磁碟群組。

    -rf rm volume

    移除指定的容體。

  5. 使用 scsetup(1M) 註冊磁碟裝置群組配置的變更,以更新全域名稱空間。

    請參閱 SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)

SPARC: 如何移除及註銷磁碟裝置群組 (VERITAS Volume Manager)

移除 Sun Cluster 磁碟裝置群組將會導致對應的 VxVM 磁碟群組被撤出,而不是被銷毀。不過,即使 VxVM 磁碟群組依然存在,除非重新註冊,否則不能用於叢集。

此程序使用 scsetup(1M) 公用程式移除 VxVM 磁碟群組,並將它作為 Sun Cluster 磁碟裝置群組取消註冊。

  1. 成為叢集上任何節點的超級使用者。

  2. 使磁碟裝置群組離線。


    # scswitch -F -D disk-device-group
    

    -F

    使磁碟裝置群組離線。

    -D disk-device-group

    指定要離線的裝置群組。

  3. 輸入 scsetup 公用程式。

    顯示 Main Menu。


    # scsetup
    

  4. 若要使用 VxVM 裝置群組,請輸入 4 (裝置群組與容體)。

    會出現 Device Groups Menu。

  5. 若要註銷 VxVM 磁碟群組,請輸入 3 (註銷 VxVM 裝置群組)。

    請依指示進行,並輸入要註銷的 VxVM 磁碟群組。

SPARC: 範例—移除並註銷 VERITAS Volume Manager磁碟裝置群組

以下範例顯示離線的 VxVM 磁碟裝置群組 dg1,以及 scsetup 在移除並取消註冊磁碟裝置群組時所產生的 scconf 指令。


# scswitch -F -D dg1
# scsetup

   scconf -r -D name=dg1

SPARC: 如何新增節點至磁碟裝置群組 (VERITAS Volume Manager)

此程序使用 scsetup(1M) 公用程式將節點增加至磁碟裝置群組。

新增節點至 VxVM 磁碟裝置群組的必備條件如下:

  1. 成為叢集上任何節點的超級使用者。

  2. 出現提示符號時,請鍵入 scsetup 指令。


    # scsetup
    
    將顯示 Main Menu。

  3. 若要使用 VxVM 磁碟裝置群組,請輸入 4 (裝置群組與容體)。

    會出現 Device Groups Menu。

  4. 若要新增節點到 VxVM 磁碟裝置群組,請輸入 4 (新增節點至 VxVM 裝置群組)。

    請依指示進行,同時輸入裝置群組與節點名稱。

  5. 確認節點是否已新增。

    請查詢下列指令顯示之新磁碟的裝置群組資訊。


    # scconf -p 
    

SPARC: 範例—新增節點到 VERITAS Volume Manager磁碟裝置群組

以下範例顯示當 scsetup 將節點 (phys-schost-3 ) 增加到 VxVM 磁碟裝置群組 (dg1) 時,所產生的 scconf 指令,以及驗證步驟。


# scsetup
 
scconf a D type=vxvm,name=dg1,nodelist=phys-schost-3
  
# scconf -p
Device group name:                dg1
   Device group type:             VXVM
   Device group failback enabled: yes
   Device group node list:        phys-schost-1, phys-schost-3

SPARC: 如何從磁碟裝置群組移除節點 (VERITAS Volume Manager)

使用此程序從 VERITAS Volume Manager (VxVM) 磁碟裝置群組 (磁碟群組) 之潛在主要節點清單移除叢集節點。

  1. 確認節點仍然是群組的成員,且群組為 VxVM 裝置群組。

    VxVM 裝置群組類型表示一個 VxVM 磁碟裝置群組。


    phys-schost-1% scconf -pv | grep '(global-galileo)'
      (global-galileo) Device group type:              VxVM
      (global-galileo) Device group failback enabled:  no
      (global-galileo) Device group node list:         phys-schost-1, phys-schost-2
      (global-galileo) Diskset name:                   global-galileo
    phys-schost-1%

  2. 成為現行叢集成員節點的超級使用者。

  3. 執行 scsetup(1M) 指令。


    # scsetup
    

    顯示 Main Menu。

  4. 若要重新配置磁碟裝置群組,請輸入 4 (裝置群組與容體)。

  5. 若要從 VxVM 磁碟裝置群組移除節點,請鍵入 5 (從 VxVM 裝置群組移除節點)。

    依提示從磁碟裝置群組移除叢集節點。系統將詢問您以下項目的相關資訊:

    • VxVM 裝置群組

    • 節點名稱

  6. 確認已從 VxVM 磁碟裝置群組中移除節點。


    # scconf -p | grep Device
    

SPARC: 範例—從磁碟裝置群組移除節點 (VxVM)

此範例顯示從 dg1 VxVM 磁碟裝置群組移除名為 phys-schost-1 的節點。


[Determine the VxVM disk device group for the node:]
# scconf -p | grep Device
  Device group name:                 dg1
    Device group type:               VxVM
    Device group failback enabled:   no
    Device group node list:          phys-schost-1, phys-schost-2
    Device group diskset name:    	dg1
[Become superuser and execute the scsetup utility:]
# scsetup
 Select Device groups and volumes>Remove a node from a VxVM device group.
Answer the questions when prompted. 
You will need the following information.
  You Will Need:            Example:
  VxVM device group name    dg1
  node names                phys-schost-1
[Verify that the scconf command executed properly:]
 
scconf -r -D name=dg1,nodelist=phys-schost-1
 
    Command completed successfully.
Quit the scsetupDevice Groups Menu and Main Menu.
[Verify that the node was removed:]
# scconf -p | grep Device
  Device group name:                 dg1
    Device group type:               VxVM
    Device group failback enabled:   no
    Device group node list:          phys-schost-2
    Device group diskset name:    	dg1

SPARC: 如何從原始磁碟裝置群組移除節點

使用此程序從 VERITAS Volume Manager (VxVM) 磁碟裝置群組 (磁碟群組) 之潛在主要節點清單中,移除一個叢集節點。

使用此程序從原始磁碟裝置群組的潛在主要節點清單中,移除一個叢集節點。

  1. 不同於要移除的節點叢集中的一個節點上成為超級使用者。

  2. 找到與已移除節點連結的磁碟裝置群組。

    裝置群組節點清單項目中尋找節點名稱。


    # scconf -pvv | grep nodename | grep "Device group node list"
    

  3. 確認在步驟 2 找到的哪些磁碟裝置群組為原始磁碟裝置群組。

    原始磁碟裝置群組屬於 DiskLocal_Disk 裝置群組類型。


    # scconf -pvv | grep group-type
    

  4. 停用每一個 Local_Disk 原始磁碟裝置群組的 localonly 屬性。


    # scconf -c -D name=rawdisk-device-group,localonly=false
    

    請參閱 scconf_dg_rawdisk(1M) 線上說明手冊,以取得有關 localonly 特性的更多資訊。

  5. 確認您已停用所有連結到已移除節點的原始磁碟裝置群組的 localonly 屬性。

    Disk 裝置群組勒種類表示關閉原始磁碟裝置群組的 localonly 屬性。


    # scconf -pvv | grep group-type 
    

  6. 從所有在 步驟 3 中找到的原始磁碟裝置群組移除節點。

    您必須針對連結至已移除節點的每一個原始磁碟裝置群組完成這個步驟。


    # scconf -r -D name=rawdisk-device-group,nodelist=nodename
    

SPARC: 範例—從原始磁碟裝置群組移除節點

這個範例顯示如何從原始磁碟裝置群組移除節點 (phys-schost-2)。所有指令是從叢集的另一個節點執行 (phys-schost-1)。


[Identify the disk device groups connected to the node being removed:]
phys-schost-1# scconf -pvv | grep phys-schost-2 | grep "Device group node list"
	(dsk/d4) Device group node list:  phys-schost-2
	(dsk/d2) Device group node list:  phys-schost-1, phys-schost-2
	(dsk/d1) Device group node list:  phys-schost-1, phys-schost-2
[Identify the raw disk device groups:]
phys-schost-1# scconf -pvv | grep Disk
	(dsk/d4) Device group type:          Local_Disk
	(dsk/d8) Device group type:          Local_Disk
[Disable the localonly flag for each local disk on the node:]
phys-schost-1# scconf -c -D name=dsk/d4,localonly=false
[Verify that the localonly flag is disabled:]
phys-schost-1# scconf -pvv | grep Disk 
    (dsk/d4) Device group type:          Disk
    (dsk/d8) Device group type:          Local_Disk
[Remove the node from all raw disk device groups:]
phys-schost-1# scconf -r -D name=dsk/d4,nodelist=phys-schost-2
phys-schost-1# scconf -r -D name=dsk/d2,nodelist=phys-schost-2
phys-schost-1# scconf -r -D name=dsk/d1,nodelist=phys-schost-2

如何變更磁碟裝置屬性

磁碟裝置群組主要所有權的建立方法是以稱為 preferenced 的所有權喜好設定屬性的設定為基礎的。如果未設定此性質,則其他無所有者之磁碟裝置群組的主要所有者,會是第一個試圖存取該群組中磁碟的節點。不過,如果已經設定這個性質,您必須指定節點建立所有權時依據的喜好順序。

如果您停用 preferenced 屬性,則 failback 屬性也會自動停用。然而,如果您嘗試啟用或重新啟用 preferenced 屬性,則可以選擇啟用或停用 failback 屬性。

如果 preferenced 性質已經啟動或重新啟動,系統會要求您重新建立主要所有權喜好設定清單中的節點順序。

此程序使用 scsetup(1M) 設定或取消設定 Solstice DiskSuite/Solaris Volume Manager 或 VxVM 磁碟裝置群組的 preferenced 屬性及 failback 屬性。

若要執行這個程序,需要您要變更性質值之磁碟裝置群組的名稱。

  1. 成為叢集上任何節點的超級使用者。

  2. 執行 scsetup 指令。

    顯示 Main Menu。


    # scsetup
    

  3. 要使用磁碟裝置群組,請輸入 4 (裝置群組與容體)。

    會出現 Device Groups Menu。

  4. 若要變更裝置群組的主要屬性,請輸入 6 (變更 VxVM 或 Solstice DiskSuite/Solaris Volume Manager裝置群組的主要屬性)。

    此時會顯示 Change Key Properties Menu

  5. 若要變更裝置群組屬性,請輸入 1 (變更 preferenced 及/或 failback 屬性)。

    請依指示來設定裝置群組的 preferencedfailback 選項。

  6. 確認磁碟裝置群組性質變更成功。

    請查詢下列指令顯示的裝置群組資訊。


    # scconf -p 
    

範例—變更磁碟裝置群組屬性

以下範例顯示 scconf 指令 (scsetup 在設定磁碟裝置群組 dg-schost-1 的性質值時所產生)。


# scconf -c -D name=dg-schost-1,nodelist=phys-schost-1:phys-schost-2,\
preferenced=true,failback=enabled,numsecondaries=1

# scconf -p | grep Device
Device group name:                             dg-schost-1
   Device group type:                          SDS
   Device group failback enabled:              yes
   Device group node list:                     phys-schost-1, phys-schost-2
   Device group ordered node list:             yes
   Device group desired number of secondaries: 1
   Device group diskset name:                  dg-schost-1

如何變更裝置群組所要的次要節點數目

裝置群組之次要節點的預設數目設定為一個。這個設定會在主要節點故障時,用來指定裝置群組內可成為群組主要所有者的節點數目。所要次要節點數目的值,可以設為介於一和裝置群組中非主要提供者節點數目之間的任何整數。

如果 numsecondaries 屬性改變,且此變更造成次要節點的實際數目與所要數目不符,則次要節點會新增或從裝置群組移除。

此程序使用 scsetup(1M) 設定或取消設定 Solstice DiskSuite/Solaris Volume Manager 或 VxVM 磁碟裝置群組的 numsecondaries 特性。請參閱 scconf_dg_rawdisk(1M)scconf_dg_sds (1M)scconf_dg_svm(1M)scconf_dg_vxvm(1M),以取得有關配置任何裝置群組時的磁碟裝置群組選項的資訊。

  1. 成為叢集上任何節點的超級使用者。

  2. 執行 scsetup 公用程式。


    # scsetup
    

    顯示 Main Menu。

  3. 要使用磁碟裝置群組,請輸入 4 (裝置群組與容體)。

    會出現 Device Groups Menu。

  4. 若要變更裝置群組的主要屬性,請輸入 6 (變更裝置群組的主要屬性)。

    顯示 Change Key Properties Menu。

  5. 若要變更所要的次要節點數目,請輸入 2 (變更 numsecondaries 屬性)。

    依指示進行,同時輸入要為磁碟裝置群組配置的所要次要節點數目。輸入適當的值之後,便會執行對應的 scconf 指令,並印出一份記錄,且使用者會返回前一個功能表。

  6. 確認磁碟裝置群組性質變更成功。

    請查詢下列指令所顯示的裝置群組資訊。


    # scconf -p 
    

範例—變更所要的次要節點數目

以下範例顯示當 scsetup 配置裝置群組 (dg-schost-1) 所要的次要節點數目時,所產生的 scconf 指令。此範例假設磁碟群組及容體在先前便已建立。


# scconf -c -D name=phys-host-1,nodelist=phys-schost-1:phys-schost-2,phys-schost-3\
preferenced=true,failback=enabled,numsecondaries=1

# scconf -p | grep Device
Device group name:                             dg-schost-1
   Device group type:                          SDS/SVM
   Device group failback enabled:              yes
   Device group node list:                     phys-schost-1, phys-scost-2, phys-schost-3 
   Device group ordered node list:             yes
   Device group desired number of secondaries: 1
   Device group diskset name:                  dg-schost-1

以下範例顯示使用空字串值來配置次要節點的預設數目。裝置群組將配置為使用預設值,即使預設值改變。


# scconf -c -D 
name=diskgrp1, nodelist=host1:host2:host3,
preferenced=false,failback=enabled,numsecondaries=
 # scconf -p | grep Device
Device group name:                             dg-schost-1
   Device group type:                          SDS/SVM
   Device group failback enabled:              yes
   Device group node list:                     phys-schost-1, phost-2, phys-schost-3
   Device group ordered node list:             yes
   Device group desired number of secondaries: 1
   Device group diskset name:                  dg-schost-1

如何列出磁碟裝置群組配置

不是超級使用者也能列出配置。

您可以採用以下三種方法列出磁碟裝置群組配置資訊。

  1. 使用 SunPlex Manager GUI。

    請參閱 SunPlex Manager 線上說明,以取得詳細資訊。

  1. 使用 scstat(1M) 列出磁碟裝置群組配置。


    % scstat -D
    

    使用 scconf(1M) 列出磁碟裝置群組配置。


    % scconf -p
    

範例 - 使用 scstat 列出磁碟裝置群組配置

使用 scstat -D 指令可顯示下列資訊。


-- Device Group Servers --
                         Device Group           Primary             Secondary
                         ------------           -------             ---------
  Device group servers:  phys-schost-2          -                   -
  Device group servers:  phys-schost-1          phys-schost-2       phys-schost-3
  Device group servers:  phys-schost-3          -                   -
-- Device Group Status --
                              Device Group          Status              
                              ------------          ------              
  Device group status:        phys-schost-2          Offline
  Device group status:        phys-schost-1          Online
  Device group status:        phys-schost-3          Offline

範例 - 使用 scconf 列出磁碟裝置群組配置

當您使用 scconf 指令時,請查詢列於裝置群組下方的資訊。


# scconf -p
...
Device group name: dg-schost-1
	Device group type:              SDS/SVM
	Device group failback enabled:  yes
	Device group node list:         phys-schost-2, phys-schost-3
	Device group diskset name:      dg-schost-1

如何切換裝置群組的主要節點

此程序也可以用於啟動非作用中的裝置群組 (使其連線)。

您也可將非作用中的裝置群組予以連線,或使用 SunPlex Manager GUI 切換裝置群組的主要節點。請參閱 SunPlex Manager 線上說明,以取得詳細資訊。

  1. 成為叢集上任何節點的超級使用者。

  2. 使用 scswitch(1M) 切換磁碟裝置群組的主要節點。


    # scswitch -z -D disk-device-group -h node
    

    -z

    執行切換。

    -D disk-device-group

    指定要切換的裝置群組。

    -h node

    指定要切換至哪一個節點名稱,此節點會成為新的主要節點。

  3. 確認磁碟裝置群組已經成功切換到新的主要節點。

    如果磁碟裝置群組已正確註冊,在使用以下指令時,將顯示新磁碟裝置群組的資訊。


    # scstat -D
    

範例—切換磁碟裝置群組的主要節點

以下範例顯示如何切換磁碟裝置群組的主要節點以及驗證變更。


# scswitch -z -D dg-schost-1 -h phys-schost-1
# scstat -D

-- Device Group Servers --
                          Device Group               Primary             Secondary
                         ------------                -------             ---------
Device group servers:    dg-schost-1                 phys-schost-1       phys-schost-2
 
-- Device Group Status --
                                Device Group              Status              
                              ------------                ------              
  Device group status:        dg-schost-1                 Online

如何使磁碟裝置群組進入維護狀態

使裝置群組進入維護狀態可避免在存取其中一個裝置時,裝置群組自動連線。在完成需要所有 I/O 活動停止直到維修完成的維修程序後,您應使裝置群組處於維護狀態。使裝置群組處於維護狀態也可避免資料流失,可確保當一個節點的磁碟組或磁碟群組在維修時,磁碟裝置群組不會連線到另一個節點上。


注意 –

您必須先停止所有存取裝置的動作、卸載所有相依檔案系統,之後才能使該裝置群組進入維護狀態。


  1. 使裝置群組進入維護狀態。


    # scswitch -m -D disk-device-group
    

  2. 如果所執行的修復程序需要磁碟組或磁碟群組的所有權,請以手動方式匯入該磁碟組或磁碟群組。

    用於 Solstice DiskSuite/Solaris Volume Manager:


    # metaset -C take -f -s diskset
    


    注意 – 注意 –

    如果您擁有 Solstice DiskSuite/Solaris Volume Manager 磁碟組的所有權,當裝置群組處於維護狀態時,則必須使用 metaset -C take 指令。使用 metaset -t 會使裝置群組以部分所有權形式恢復連線。如果您要匯入 VxVM 磁碟群組,必須在匯入磁碟群組時使用 -t 旗標。如此可避免在此節點重新啟動時,產生自動匯入磁碟群組的情形。


    針對 VERITAS Volume Manager:


    # vxdg -t import disk-group-name
    

  3. 完成任何需要執行的維修程序。

  4. 釋放磁碟組或磁碟群組的所有權。


    注意 – 注意 –

    使磁碟裝置群組脫離維護狀態前,您必須釋放磁碟組或磁碟群組的所有權。未完成此程序將可能造成資料流失。


    • 用於 Solstice DiskSuite/Solaris Volume Manager:


      # metaset -C release -s diskset
      

    • 針對 VERITAS Volume Manager:


      # vxdg deport disk-group-name
      

  5. 使磁碟裝置群組進入連線狀態。


    # scswitch -z -D disk-device-group -h node
    

範例—使磁碟裝置群組進入維護狀態

此範例顯示如何使磁碟裝置群組 dg-schost-1 進入維護狀態,以及如何從維護狀態移除磁碟裝置群組。


[Place the disk device group in maintenance state.]
# scswitch -m -D dg-schost-1
 
[If needed, manually import the diskset or disk group.]
For Solstice DiskSuite/Solaris Volume Manager:
  # metaset -C take -f -s dg-schost-1
For VERITAS Volume Manager:
  # vxdg -t import dg1
  
[Complete all necessary repair procedures.]
  
[Release ownership.]
For Solstice DiskSuite/Solaris Volume Manager:
  # metaset -C release -s dg-schost-1
For VERITAS Volume Manager:
  # vxdg deport dg1
  
[Bring the disk device group online.]
# scswitch -z -D dg-schost-1 -h phys-schost-1