Sun Cluster 系統管理指南(適用於 Solaris 作業系統)

第 4 章 管理整體裝置、磁碟路徑監視以及叢集檔案系統

本章提供管理整體裝置、磁碟路徑監視與叢集檔案系統的程序。

以下是本章所介紹程序的清單。

如需有關本章中相關程序的高階說明,請參閱表 4–2

請參閱「Sun Cluster 概念指南 (適用於 Solaris 作業系統)」,以取得與全域裝置、全域名稱空間、磁碟裝置群組、磁碟路徑監視以及叢集檔案系統相關的概念資訊。

管理整體裝置與全域名稱空間簡介

Sun Cluster 磁碟裝置群組的管理工作有賴於安裝在叢集上的容體管理程式。Solstice DiskSuite/Solaris Volume Manager 具有「叢集感知」功能,因此您可以使用 Solstice DiskSuite/Solaris Volume Manager metaset(1M) 指令增加、註冊和移除磁碟裝置群組。如果您使用的是 VERITAS Volume Manager (VxVM),可以使用 VxVM 指令來建立磁碟群組。您可以使用 scsetup(1M) 公用程式將磁碟群組註冊為 Sun Cluster 磁碟裝置群組。在移除 VxVM 磁碟裝置群組時,需同時使用 scsetup 指令和 VxVM 指令。

Sun Cluster 軟體會自動為叢集中的每一個磁碟及磁帶裝置建立原始磁碟裝置群組,不過叢集裝置群組仍會保持離線狀態,除非您將群組作為全域裝置來存取。在管理磁碟裝置群組或容體管理程式磁碟群組時,您必須在該群組之主要節點的叢集節點上執行。

通常您不需要管理全域裝置名稱空間。安裝時會自動設置全域名稱空間,並會在 Solaris 作業系統重新啟動時自動更新名稱空間。但是,如果全域名稱空間需要更新,則您可以從任意叢集節點執行 scgdevs(1M) 指令。這個指令會使所有其他叢集節點成員,以及未來可能加入該叢集之節點上的全域名稱空間都被更新。

Solstice DiskSuite/Solaris Volume Manager 的整體裝置許可權

對全域裝置許可權所做的變更,不會自動傳遞至 Solstice DiskSuite/Solaris Volume Manager 與磁碟裝置之叢集中的所有節點。如果您要變更整體裝置的許可權,您必須手動變更叢集中每一個節點的許可權。例如,如果您要將整體裝置 /dev/global/dsk/d3s0 的許可權變更為 644,您必須在叢集中的所有節點上執行

# chmod 644 /dev/global/dsk/d3s0

VxVM 不支援 chmod 指令。若要變更 VxVM 中的整體裝置許可權,請參閱「VxVM 管理指南」。

整體裝置的動態重新配置

若要完成叢集中磁碟與磁帶裝置上的動態重新配置 (DR) 作業,您必須考慮下列問題。


注意 – 注意 –

如果您在次要節點上執行 DR 作業時,現行的主要節點發生故障,叢集可用性將會受到影響。除非提供新的次要節點,否則主要節點沒有地方可以進行故障轉移。


若要在整體裝置上執行 DR 作業,請依順序完成下列步驟。

表 4–1 對應作業:磁碟與磁帶裝置的動態重新配置

作業 

相關說明 

1. 如果必須在現行的主要節點上執行會影響使用中裝置群組的 DR 作業,那麼在裝置上執行 DR 移除作業之前,請先切換主要及次要節點。 

如何切換裝置群組的主要節點

2. 在要移除的裝置上執行 DR 移除作業。 

Solaris 8 on Sun Hardware」及「Solaris 9 on Sun Hardware」文件集合中的「Sun Enterprise 10000 DR Configuration Guide」及「Sun Enterprise 10000 Dynamic Reconfiguration Reference Manual」。

SPARC: VERITAS Volume Manager 管理注意事項

管理叢集檔案系統簡介

管理叢集檔案系統無需特定的 Sun Cluster 指令。管理叢集檔案系統的方式和管理其它任何的 Solaris 檔案系統一樣,可以使用標準的 Solaris 檔案系統指令,如 mountnewfs 等。指定 -g 選項至 mount 指令可以裝載叢集檔案系統,叢集檔案系統也能在啟動時自動裝載。


備註 –

當叢集檔案系統讀取檔案時,檔案系統並不會更新那些檔案的存取時間。


叢集檔案系統限制

以下限制適用於管理叢集檔案系統:

SPARC: 支援 VxFS 的準則

Sun Cluster 3.1 叢集檔案系統中不支援以下 VxFS 功能。但是,在本機檔案系統中支持這些功能。

可使用快取建議,但是只有在指定的節點上才能看出效果

Sun Cluster 3.1 軟體支援叢集檔案系統中支援的所有 VxFS 的其他功能與選項。請參閱 VxFS 文件,以取得有關叢集配置中支援的 VxFS 選項的詳細資訊。

下列關於如何使用 VxFS 建立高可用性叢集檔案系統的準則,是針對 Sun Cluster 3.1 4/04 配置的。

下列有關如何管理 VxFS 叢集檔案系統的準則,並非針對 Sun Cluster 3.1 4/04 軟體。不過,這些準則和您管理 UFS 叢集檔案系統的方法不同。

管理磁碟裝置群組

scsetup(1M) 公用程式是 scconf(1M) 指令的互動式介面。scsetup 會產生 scconf 指令。產生的指令會在部分程序範例的尾端顯示。


備註 –

Sun Cluster 軟體會自動為叢集中的每一個磁碟及磁帶裝置建立原始磁碟裝置群組。不過叢集裝置群組仍會保持離線狀態,除非您將群組作為全域裝置來存取。


表 4–2 工作清單:管理磁碟裝置群組

作業 

如需相關說明,請參閱 … 

更新整體裝置名稱空間 (不含重新配置的重新啟動) 

- 使用 scgdevs(1M)

如何更新整體裝置名稱空間

增加 Solstice DiskSuite/Solaris Volume Manager 磁碟組,並將其註冊為磁碟裝置群組 

- 使用 metaset(1M)

如何新增與註冊磁碟裝置群組 (Solstice DiskSuite/Solaris Volume Manager)

從配置中移除 Solstice DiskSuite/Solaris Volume Manager 磁碟裝置群組 

- 使用 metasetmetaclear(1M)

如何移除及註銷磁碟裝置群組 (Solstice DiskSuite/Solaris Volume Manager)

從所有磁碟裝置群組移除節點 

- 使用 scconfmetasetscsetup

如何從所有磁碟裝置群組移除節點

從 Solstice DiskSuite/Solaris Volume Manager 磁碟裝置群組移除節點 

- 使用 metaset

如何從磁碟裝置群組移除節點 (Solstice DiskSuite/Solaris Volume Manager)

SPARC:將 VERITAS Volume Manager 磁碟群組新增為磁碟裝置群組 

- 使用 VxVM 指令和 scsetup(1M)

SPARC: 如何在起始磁碟時建立新的磁碟群組 (VERITAS Volume Manager)

 

SPARC: 如何在封裝磁碟時建立新的磁碟群組 (VERITAS Volume Manager)

 

SPARC: 如何新增新的容體至現有的磁碟裝置群組 (VERITAS Volume Manager)

 

SPARC: 如何將現有的磁碟群組加入磁碟裝置群組 (VERITAS Volume Manager)

 

SPARC: 如何指定磁碟裝置群組的新次要編號 (VERITAS Volume Manager)

 

SPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)

 

SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)

SPARC:從配置中移除 VERITAS Volume Manager 磁碟裝置群組 

- 使用 scsetup (以產生 scconf)

SPARC: 如何從磁碟裝置群組移除容體 (VERITAS Volume Manager)

 

SPARC: 如何移除及註銷磁碟裝置群組 (VERITAS Volume Manager)

SPARC:新增節點至 VERITAS Volume Manager 磁碟裝置群組 

- 使用 scsetup 以產生 scconf

SPARC: 如何新增節點至磁碟裝置群組 (VERITAS Volume Manager)

SPARC:從 VERITAS Volume Manager 磁碟裝置群組移除節點 

- 使用 scsetup 以產生 scconf

SPARC: 如何從磁碟裝置群組移除節點 (VERITAS Volume Manager)

從原始磁碟裝置群組移除節點 

- 使用 scconf(1M)

SPARC: 如何從原始磁碟裝置群組移除節點

變更磁碟裝置群組特性 

- 使用 scsetup 以產生 scconf

如何變更磁碟裝置特性

顯示磁碟裝置群組與特性 

- 使用 scconf

如何列出磁碟裝置群組配置

變更裝置群組的所需次要節點數目 

- 使用 scsetup 以產生 scconf

如何變更裝置群組所要的次要節點數目

切換磁碟裝置群組的主要節點 

- 使用 scswitch(1M)

如何切換裝置群組的主要節點

使磁碟裝置群組進入維護狀態 

- 使用 metasetvxdg

如何使磁碟裝置群組進入維護狀態

Procedure如何更新整體裝置名稱空間

增加新的全域裝置時,請透過執行 scgdevs(1M),手動更新全域裝置名稱空間。


備註 –

如果執行指令的節點目前不是叢集成員,那麼 scgdevs 指令便不會有任何效果。如果未裝載 /global/.devices/node@ nodeID 檔案系統,則指令同樣不會有效果。


步驟
  1. 成為叢集上任何節點的超級使用者。

  2. 使用 scgdevs 指令重新配置名稱空間。


    # scgdevs
    

範例 4–1 更新全域裝置名稱空間

以下範例顯示執行 scgdevs 成時產生的輸出。


# scgdevs 
Configuring the /dev/global directory (global devices)...
obtaining access to all attached disks
reservation program successfully exiting

Procedure如何新增與註冊磁碟裝置群組 (Solstice DiskSuite/Solaris Volume Manager)

使用metaset 指令建立 Solstice DiskSuite/Solaris Volume Manager 磁碟組並將其註冊為 Sun Cluster 磁碟裝置群組。註冊磁碟組時,您指定給磁碟組的名稱會自動指定給磁碟裝置群組。

步驟
  1. 在連接您要建立磁碟組之磁碟的節點上成為超級使用者。

  2. 計算配置所需的 Solstice DiskSuite 中介裝置或 Solaris Volume Manager 容體的名稱數,並在每個節點上修改 /kernel/drv/md.conf 檔案。

    請參閱「Sun Cluster 軟體安裝指南(適用於 Solaris 作業系統)」中的「如何設定中介裝置或容體名稱和磁碟組的數目」。

  3. 使用 metaset(1M) 指令增加 Solstice DiskSuite/Solaris Volume Manager 磁碟組,並將其註冊為具備 Sun Cluster 的磁碟裝置群組。若要建立多所有者磁碟群組,請使用 –M 選項。


    # metaset -s diskset -a -M -h nodelist
    
    -s diskset

    指定要建立的磁碟組。

    -a -h nodelist

    增加可控制磁碟組的節點清單。

    -M

    指定磁碟群組為多擁有者。


    備註 –

    在叢集上執行 metaset 指令來建立「Solstice DiskSuite/Solaris Volume Manager」裝置群組,根據預設將會產生一個次要節點,不論該裝置群組中所含的節點數目為何。您可以在建立裝置群組後使用 scsetup(1M) 公用程式變更所需的次要節點數目。請參閱如何變更裝置群組所要的次要節點數目,以取得更多有關磁碟防故障備用的資訊。


  4. 確認磁碟裝置群組是否新增成功。

    磁碟裝置群組名稱會與使用 metaset 指定的磁碟組名稱匹配。


    # scconf -p | grep disk-device-group
    

範例 4–2 增加 Solstice DiskSuite/Solaris Volume Manager 磁碟裝置群組

以下範例顯示了磁碟組與磁碟裝置群組的建立,並確認磁碟裝置群組已經建立。


# metaset -s dg-schost-1 -a -h phys-schost-1
# scconf -p | grep dg-schost-1
Device group name: dg-schost-1

如何移除及註銷磁碟裝置群組 (Solstice DiskSuite/Solaris Volume Manager)

磁碟裝置群組是已透過 Sun Cluster 註冊的 Solstice DiskSuite/Solaris Volume Manager 磁碟組。若要移除 Solstice DiskSuite/Solaris Volume Manager 磁碟裝置群組,請使用 metaclearmetaset 指令。這些指令會移除相同名稱的磁碟裝置群組,並註銷其 Sun Cluster 磁碟裝置群組的身份。

請參閱 Solstice DiskSuite/Solaris Volume Manager 說明文件,以取得移除磁碟組的步驟。

Procedure如何從所有磁碟裝置群組移除節點

使用此程序移除所有磁碟裝置群組 (該群組列出了潛在主要節點清單中的節點) 中的叢集節點。

步驟
  1. 在所有磁碟裝置群組中您要移除的潛在主要節點上成為超級使用者。

  2. 判斷要移除其節點的磁碟裝置群組是否為成員。

    裝置群組節點清單中尋找每一個磁碟裝置群組的節點名稱。


    # scconf -p | grep "Device group"
    
  3. 步驟 2 中識別出的磁碟裝置群組中是否有裝置群組類型為 SDS/SVM 的群組?

  4. 步驟 2 中識別出的磁碟裝置群組中是否有裝置群組類型為 VxVM 的群組?

  5. 決定要移除其成員節點的原始磁碟裝置群組。

    請注意,下列指令包含了兩個 “v”,-pvv。要顯示原始磁碟裝置群組需要第二個 “v”。


    # scconf -pvv | grep "Device group"
    
  6. 步驟 5 中列出的磁碟裝置群組中是否有裝置群組類型為 DiskLocal_Disk,或是這兩種類型的群組都有?

  7. 確認節點已從所有磁碟裝置群組的潛在主要節點中移除。

    如果節點不再列為任何磁碟裝置群組的潛在主要節點,則此項指令不會傳回任何訊息。


    # scconf -pvv | grep "Device group" | grep nodename
    

Procedure如何從磁碟裝置群組移除節點 (Solstice DiskSuite/Solaris Volume Manager)

使用此程序從 Solstice DiskSuite/Solaris Volume Manager 磁碟裝置群組的潛在主要節點清單中,移除一個叢集節點。請為每一個您想要移除節點的磁碟裝置群組,重複執行 metaset 指令。

步驟
  1. 驗證該節點是否仍是磁碟裝置群組的成員,以及該磁碟裝置群組是否為 Solstice DiskSuite/Solaris Volume Manager 磁碟裝置群組。

    SDS/SVM 裝置群組類型表示一個 Solstice DiskSuite/Solaris Volume Manager 磁碟裝置群組。


    phys-schost-1% scconf -pv | grep '(global-galileo)'
      (global-galileo) Device group type:              SDS/SVM
      (global-galileo) Device group failback enabled:  no
      (global-galileo) Device group node list:         phys-schost-1, phys-schost-2
      (global-galileo) Diskset name:                   global-galileo
    phys-schost-1%
  2. 判斷哪一個節點是裝置群組目前的主要節點。


    # scstat -D
    
  3. 在目前擁有您要修改之磁碟裝置群組的節點上成為超級使用者。

  4. 從磁碟裝置群組移除節點的主機名稱。


    # metaset -s setname -d -h nodelist
    
    -s setname

    指定磁碟裝置群組名稱。

    -d

    從磁碟裝置群組刪除由 -h 標識的節點。

    -h nodelist

    從可控制磁碟裝置群組的節點清單中移除節點。


    備註 –

    更新可能需要數分鐘才能夠完成。


    如果指令失敗,則將 -f ([強制]) 選項加入指令中。


    # metaset -s setname -d -f -h nodelist
    
  5. 對要從其中將節點作為潛在主要節點移除的每個磁碟裝置群組重複執行步驟 4

  6. 確認節點已從磁碟裝置群組中移除。

    磁碟裝置群組名稱會與使用 metaset 指定的磁碟組名稱匹配。


    phys-schost-1% scconf -pv | grep  devicegroup  
    Device group node list:  phys-schost-1, phys-schost-2

範例 4–3 從磁碟裝置群組 (Solstice DiskSuite/Solaris Volume Manager) 移除節點

下列範例顯示如何從磁碟裝置群組配置移除主機名稱 phys-schost-2 。這個範例刪除成為指定磁碟裝置群組中潛在主要節點的 phys-schost-2 。透過執行 scstat -D 指令驗證節點是否已移除。檢查移除的節點不再顯示於螢幕文字中。


[確定節點的 Solstice DiskSuite/Solaris Volume Manager
磁碟裝置群組(2):]
# scconf -pv | grep Device
  Device group name:                 dg-schost-1
    Device group type:               SDS/SVM
    Device group failback enabled:   no
    Device group node list:          phys-schost-1, phys-schost-2
    Device group ordered node list:  yes
    Device group diskset name:    	 dg-schost-1
[確定磁碟裝置群組目前的主要節點:]
# scstat -D
  -- Device Group Servers --
                       Device Group  Primary        Secondary
                       ------------  -------        ---------
  Device group servers: dg-schost-1  phys-schost-1  phys-schost-2
[在擁有該磁碟裝置群組的節點上以超級使用者身份登入。]
[從該磁碟裝置群組中刪除主機名稱:]
# metaset -s dg-schost-1 -d -h phys-schost-2
[驗證是否已移除節點:]
phys-schost-1% scconf -pv | grep dg-schost-1
  -- Device Group Servers --
                       Device Group  Primary        Secondary
                       ------------  -------        ---------
  Device group servers: dg-schost-1  phys-schost-1  

Procedure如何在叢集中建立三個以上的磁碟組

如果您想在叢集中建立三個以上的磁碟組,請在建立磁碟組之前執行下列步驟。如果您是第一次安裝磁碟組,或是要增加更多磁碟組到已完全配置的叢集中,請遵循這些步驟進行。

步驟
  1. 確認 md_nsets 變數的值夠高。這個值應大於您想要在叢集中建立的磁碟組總數。

    1. 在叢集的任何節點上,檢查 md_nsets 變數值,該變數值位於 /kernel/drv/md.conf 檔中。

    2. 如果叢集中的磁碟組總數大於現有的 md_nsets 負值,請增加每個節點的 md_nsets 值。

      可允許的最大磁碟組數目是 md_nsets 的值減一。md_nsets 的最大值為 32。

    3. 確定 /kernel/drv/md.conf 檔在叢集的每個節點上都相同。


      注意 – 注意 –

      未遵循此準則會導致嚴重的 Solstice DiskSuite/Solaris Volume Manager 錯誤和可能的資料遺失。


    4. 在某一個節點上關閉叢集。


      # scshutdown -g0 -y
      
    5. 重新啟動叢集中的每個節點。

      • SPARC:


        ok boot
        
      • x86:


                              <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                          <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b
        
  2. 在叢集中的每個節點上,執行 devfsadm(1M) 指令。

    您可以在叢集的所有節點上同時執行此指令。

  3. 在叢集的一個節點上,執行 scgdevs(1M) 指令。

  4. 在每個節點上,確認在您嘗試建立任何磁碟組之前,scgdevs 指令已完成。

    scgdevs 指令在所有節點上自行遠端呼叫,即使只從一個節點執行指令也是如此。若要判斷 scgdevs 指令是否已經完成作業,請在叢集的每個節點上執行下列指令。


     % ps -ef | grep scgdevs
    

ProcedureSPARC: 如何在起始磁碟時建立新的磁碟群組 (VERITAS Volume Manager)


備註 –

這個程序只適用於起始磁碟。如果您要封裝磁碟,請使用SPARC: 如何在封裝磁碟時建立新的磁碟群組 (VERITAS Volume Manager)中的程序。


新增 VxVM 磁碟群組之後,您必須註冊磁碟裝置群組。

如果您使用 VxVM 來設定 Oracle Parallel Server 或 Oracle Real Application Clusters 的共用磁碟群組,請使用「VERITAS Volume Manager 管理指南」中所述的 VxVM 叢集功能。

步驟
  1. 實體連結至磁碟的任何節點上成為超級使用者,這些磁碟組成要增加的磁碟群組。

  2. 建立 VxVM 磁碟群組與容體。

    使用您喜好的方法來建立磁碟群組與容體。


    備註 –

    如果您正在設定鏡像容體,可在發生節點故障時使用「已使用區域記錄」(DRL) 來減少容體回復時間。但是,DRL 可能會降低 I/O 產量。


    請參閱 VERITAS Volume Manager 說明文件,以取得完成此步驟的程序。

  3. 將 VxVM 磁碟群組註冊為 Sun Cluster 磁碟裝置群組。

    請參閱SPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)

    請不要使用叢集框架來註冊 Oracle Parallel Server 或 Oracle Real Application Clusters 共用磁碟群組。

ProcedureSPARC: 如何在封裝磁碟時建立新的磁碟群組 (VERITAS Volume Manager)


備註 –

此程序僅適用於封裝磁碟。如果您要初始化磁碟,請使用SPARC: 如何在起始磁碟時建立新的磁碟群組 (VERITAS Volume Manager)中的程序。


您可以將非根磁碟加入 Sun Cluster 磁碟裝置群組,方法是先將磁碟封裝為 VxVM 磁碟群組,然後將磁碟群組註冊為 Sun Cluster 磁碟裝置群組。

只有在起始建立 VxVM 磁碟群組時才支援磁碟封裝。在建立 VxVM 磁碟群組並將其註冊為 Sun Cluster 磁碟裝置群組之後,便只有可起始的磁碟才應加入磁碟群組中。

如果您使用 VxVM 來設定 Oracle Parallel Server 或 Oracle Real Application Clusters 的共用磁碟群組,請使用「VERITAS Volume Manager 管理指南」中所述的 VxVM 叢集功能。

步驟
  1. 成為叢集上任何節點的超級使用者。

  2. 如果密封的磁碟在 /etc/vfstab 檔中有系統檔案項目,請確定 mount at boot 選項被設為 no

    一旦磁碟已封裝並註冊為 Sun Cluster 磁碟裝置群組,就請設回 yes

  3. 封裝磁碟。

    使用 vxdiskadm 功能表或圖形化使用者介面來封裝磁碟。VxVM 需要在磁碟開頭或結尾處有二個可用分割區以及未指定的磁柱。片段 2 也必須設定成整個磁碟。請參閱 vxdiskadm(1M) 線上說明手冊,以取得詳細資訊。

  4. 先關閉再重新啟動節點。

    scswitch(1M) 指令可以將所有的資源群組與裝置群組從主要節點切換至下一個喜好的節點。使用 shutdown 來關閉及重新啟動節點。


    # scswitch -S -h node[,...]
    # shutdown -g0 -y -i6
    
  5. 如有需要,將所有資源群組以及裝置群組切換回原來的節點。

    如果資源群組和裝置群組一開始便配置成故障返回主要節點,便不需要此步驟。


    # scswitch -z -D disk-device-group -h node[,...] 
    # scswitch -z -g resource-group -h node[,...] 
    
  6. 將 VxVM 磁碟群組註冊為 Sun Cluster 磁碟裝置群組。

    請參閱SPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)

    請不要使用叢集框架來註冊 Oracle Parallel Server 或 Oracle Real Application Clusters 共用磁碟群組。

  7. 如果您在步驟 2 中將 mount at boot 選項設定為 no,請將其設回 yes

ProcedureSPARC: 如何新增新的容體至現有的磁碟裝置群組 (VERITAS Volume Manager)

當您新增新的容體至現有的 VxVM 磁碟裝置群組時,請從線上磁碟裝置群組的主要節點執行此程序。


備註 –

增加容體後,您需要使用SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)中的程序來註冊配置變更。


步驟
  1. 成為叢集上任何節點的超級使用者。

  2. 決定您要新增新容體之磁碟裝置群組的主要節點。


    # scstat -D
    
  3. 如果磁碟裝置群組為離線狀態,請讓裝置群組上線。


    # scswitch -z -D disk-device-group -h node[,...]
    
    -z -D disk-device-group

    切換指定的裝置群組。

    -h node

    指定磁碟裝置群組要切換至哪個節點,此節點會成為新的主要節點。

  4. 從主要節點 (目前主控磁碟裝置群組的節點) 建立磁碟群組中的 VxVM 容體。

    請參閱 VERITAS Volume Manager 說明文件,以取得建立 VxVM 容體的程序。

  5. 註冊 VxVM 磁碟群組變更,以更新全域名稱空間。

    DPM

    SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)

ProcedureSPARC: 如何將現有的磁碟群組加入磁碟裝置群組 (VERITAS Volume Manager)

先將磁碟群組匯入目前的節點,然後將該磁碟群組註冊為 Sun Cluster 磁碟裝置群組,可以將現有的 VxVM 磁碟群組轉換為 Sun Cluster 磁碟裝置群組。

步驟
  1. 成為叢集上任何節點的超級使用者。

  2. 將 VxVM 磁碟群組匯入現行的節點。


    # vxdg import diskgroup
    
  3. 將 VxVM 磁碟群組註冊為 Sun Cluster 磁碟裝置群組。

    請參閱SPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)

ProcedureSPARC: 如何指定磁碟裝置群組的新次要編號 (VERITAS Volume Manager)

如果由於某個次要編號與其他磁碟群組衝突而導致磁碟裝置群組註冊失敗,則您必須為新的磁碟群組指定一個新的、未使用的次要編號。指定好新的次要編號後,請重新執行程序將磁碟群組註冊為 Sun Cluster 磁碟裝置群組。

步驟
  1. 成為叢集上任何節點的超級使用者。

  2. 決定使用中的次要編號。


    # ls -l /global/.devices/node@nodeid/dev/vx/dsk/*
    
  3. 選擇另一個未使用的 1000 倍數當作新磁碟群組的基本次要編號。

  4. 指定新的次要編號給磁碟群組。


    # vxdg reminor diskgroup base-minor-number
    
  5. 將 VxVM 磁碟群組註冊為 Sun Cluster 磁碟裝置群組。

    請參閱SPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)


範例 4–4 SPARC: 如何指定磁碟裝置群組的新次要編號

本範例使用 16000-16002 與 4000-4001 次級號碼。vxdg reminor 指令用來將基本次級號碼 5000 指定給新的磁碟裝置群組。


# ls -l /global/.devices/node@nodeid/dev/vx/dsk/*
/global/.devices/node@nodeid/dev/vx/dsk/dg1
brw-------   1 root     root      56,16000 Oct  7 11:32 dg1v1
brw-------   1 root     root      56,16001 Oct  7 11:32 dg1v2
brw-------   1 root     root      56,16002 Oct  7 11:32 dg1v3
 
/global/.devices/node@nodeid/dev/vx/dsk/dg2
brw-------   1 root     root      56,4000 Oct  7 11:32 dg2v1
brw-------   1 root     root      56,4001 Oct  7 11:32 dg2v2
# vxdg reminor dg3 5000

ProcedureSPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)

此程序使用 scsetup(1M) 公用程式將關聯的 VxVM 磁碟群組註冊為 Sun Cluster 磁碟裝置群組。


備註 –

磁碟裝置群組在叢集註冊之後,請勿使用 VxVM 指令匯入或撤出 VxVM 磁碟群組。如果您變更了 VxVM 磁碟群組或容體,請使用SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)中的程序註冊磁碟裝置群組配置變更。這個程序可以確保全域名稱空間處於正確的狀態。


註冊 VxVM 磁碟裝置群組的必備條件如下:

當您定義偏好的順序之後,當發生最慣用的節點關機而稍後返回叢集時,還可以指定是否要將磁碟裝置切換回最偏好的節點。

請參閱 scconf(1M),以取得有關節點喜好設定與故障回復選項的更多資訊。

非主要叢集節點 (備用) 會根據節點偏好順序轉換為次要節點。裝置群組預設的次要節點數目通常設定為一。這個預設設定可將正常操作時,因多個次要節點的主要檢查點所導致的效能降級降到最低。例如,在擁有四個節點的叢集中,預設上會配置一個主要、一個次要及兩個備用節點。另請參閱SPARC: 如何設定次要節點所要的數目 (VERITAS Volume Manager)

步驟
  1. 成為叢集上任何節點的超級使用者。

  2. 輸入 scsetup 公用程式。


    # scsetup
    

    顯示 Main Menu。

  3. 若要使用 VxVM 磁碟裝置群組,請輸入 4 (裝置群組與容體)。

    會出現 Device Groups Menu。

  4. 若要註冊 VxVM 磁碟裝置群組,請輸入 1 (將 VxVM 磁碟群組註冊為裝置群組)。

    依指示進行,同時輸入要註冊為 Sun Cluster 磁碟裝置群組的 VxVM 磁碟群組名稱。

    如果您使用 VxVM 來設定 Oracle Parallel Server/Real Application Clusters 的共用磁碟群組,請勿以叢集框架來註冊共用磁碟群組。請使用「VERITAS Volume Manager 管理指南」中所述的 VxVM 叢集功能。

  5. 如果您在試圖註冊磁碟裝置群組時發生下列錯誤,請重新指定磁碟裝置群組的次要編號。


    scconf: Failed to add device group - in use

    若要重新指定磁碟裝置群組的次要編號,請使用SPARC: 如何指定磁碟裝置群組的新次要編號 (VERITAS Volume Manager)中的程序。此程序可讓您指定新的次要編號,不與現存磁碟裝置群組所使用的次要編號相衝突。

  6. 驗證磁碟裝置群組是否已註冊且為連線狀態。

    如果磁碟裝置群組已正確註冊,在使用以下指令時,將顯示新磁碟裝置群組的資訊。


    # scstat -D
    

    備註 –

    如果您變更了任何在叢集中註冊的 VxVM 磁碟群組或容體的配置資訊,則必須使用 scsetup(1M) 同步化磁碟裝置群組。此處所指的配置資訊變更包括新增或移除容體,以及變更現有容體的群組、擁有者或權限。配置變更後重新註冊可以確保全域名稱空間處於正確的狀態。請參閱如何更新整體裝置名稱空間



範例 4–5 SPARC: 註冊 VERITAS Volume Manager 磁碟裝置群組

以下範例為註冊 VxVM 磁碟裝置群組 dg1 時,scsetup 所產生的 scconf 指令及驗證步驟。此範例假設 VxVM 磁碟群組及容體在先前便已建立。


# scsetup

scconf -a -D type=vxvm,name=dg1,nodelist=phys-schost-1:phys-schost-2


# scstat -D
-- Device Group Servers --
                         Device Group      Primary           Secondary
                         ------------      -------           ---------
Device group servers:    dg1              phys-schost-1      phys-schost-2
 
-- Device Group Status --
                              Device Group        Status              
                              ------------        ------              
  Device group status:        dg1                 Online

另請參閱

若要在 VxVM 磁碟裝置群組上建立叢集檔案系統,請參閱如何新增叢集檔案系統

如果次要編號發生問題,請參閱SPARC: 如何指定磁碟裝置群組的新次要編號 (VERITAS Volume Manager)

ProcedureSPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)

當您變更 VxVM 磁碟群組或容體的任何配置資訊時,您需要註冊 Sun Cluster 磁碟裝置群組的配置變更。註冊可以確保全域名稱空間處於正確的狀態。

步驟
  1. 成為叢集中任何節點的超級使用者。

  2. 執行 scsetup(1M) 公用程式。


    # scsetup
    

    顯示 Main Menu。

  3. 若要使用 VxVM 磁碟裝置群組,請輸入 4 (裝置群組與容體)。

    會出現 Device Groups Menu。

  4. 若要註冊配置變更,請輸入 2 (同步化 VxVM 裝置群組的容體資訊)。

    請依指示進行,同時輸入已經變更配置的 VxVM 磁碟群組。


範例 4–6 SPARC: 註冊 VERITAS Volume Manager 磁碟群組配置變更

以下範例顯示註冊變更的 VxVM 磁碟裝置群組 (dg1) 時,scsetup 所產生的 scconf 指令。此範例假設 VxVM 磁碟群組及容體在先前便已建立。


# scsetup
 
scconf -c -D name=dg1,sync

ProcedureSPARC: 如何設定次要節點所要的數目 (VERITAS Volume Manager)

numsecondaries 特性可以指定主要節點發生故障時裝置群組中可以控制群組的節點數目。裝置服務預設的次要節點數目為 1。這個值可以設定為介於 1 和裝置群組中運作的非主要提供者之節點數之間的任何整數。

在平衡叢集效能與可用性上,這個設定是很重要的因素。例如,增加所要的次要節點數目,可以增加裝置群組對抗叢集中同時發生多種故障的機會。不過,增加次要節點數目也會定期降低正常作業時的效能。較小的次要節點數目一般會產生較佳的效能,但是會降低可用性。不過,較大的次要節點數目卻不一定會使上述檔案系統或裝置群組具有較高的可用性。請參閱「Sun Cluster 概念指南 (適用於 Solaris 作業系統)」中的第 3 章「針對系統管理員和應用程式開發者的重要概念」,以取得更多資訊。

步驟
  1. 成為叢集上任何節點的超級使用者。

  2. 執行 scsetup(1M) 公用程式。


    # scsetup
    

    顯示 Main Menu。

  3. 若要使用 VxVM 磁碟裝置群組,請輸入 4 (裝置群組與容體)。

    會出現 Device Groups Menu。

  4. 若要變更裝置群組的主要特性,請輸入 6 (變更裝置群組的主要特性)。

    顯示 Change Key Properties Menu。

  5. 若要變更所要的次要節點數目,請輸入 2 (變更 numsecondaries 特性)。

    依指示進行,同時輸入要為磁碟裝置群組配置的所要次要節點數目。輸入適當的值之後,便會執行對應的 scconf 指令。接著會列印記錄,且使用者會返回上一個功能表。

  6. 使用 scconf -p 指令驗證裝置群組配置。


    # scconf -p | grep Device
    Device group name:                          dg-schost-1
    Device group type:                          VxVM
    Device group failback enabled:              yes
    Device group node list:                     phys-schost-1,phys-schost-2, phys-schost-3
    Device group ordered node list:             yes
    Device group desired number of secondaries: 1
    Device group diskset name:                  dg-schost-1

    備註 –

    如果您變更了任何在叢集註冊完成的 VxVM 磁碟群組或容體的配置資訊,必須使用 scsetup 來重新註冊磁碟裝置群組。此處所指的配置資訊變更包括新增或移除容體,以及變更現有容體的群組、擁有者或權限。配置變更後重新註冊可以確保全域名稱空間處於正確的狀態。請參閱如何更新整體裝置名稱空間


  7. 確認磁碟裝置群組的主要節點及狀態。


    # scstat -D
    

範例 4–7 SPARC: 設定所需的次要節點數目 (VERITAS Volume Manager)

以下範例顯示當 scsetup 配置裝置群組 (diskgrp1) 所要的次要節點數目時,所產生的 scconf 指令。請參閱如何變更裝置群組所要的次要節點數目,以取得有關在建立裝置群組後變更所需的次要節點數目的資訊。


# scconf -a -D type=vxvm,name=diskgrp1,nodelist=host1:host2:host3\ 
,preferenced=true,failback=enabled,numsecondaries=2
 

ProcedureSPARC: 如何從磁碟裝置群組移除容體 (VERITAS Volume Manager)


備註 –

從磁碟裝置群組中移除容體後,您必須使用SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)中的程序將配置變更註冊至磁碟裝置群組。


步驟
  1. 成為叢集上任何節點的超級使用者。

  2. 決定磁碟裝置群組的主要節點及狀態。


    # scstat -D
    
  3. 如果磁碟裝置群組處於離線狀態,請先恢復其連線。


    # scswitch -z -D disk-device-group  -h node
    
    -z

    執行切換。

    -D disk-device-group

    指定要切換的裝置群組。

    -h node

    指定要切換至哪一個節點名稱,此節點會成為新的主要節點。

  4. 從主要節點 (目前主控磁碟裝置群組的節點) 移除磁碟群組中的 VxVM 容體。


    # vxedit -g diskgroup -rf rm volume
    
    -g diskgroup

    指定含有容體的 VxVM 磁碟群組。

    -rf rm volume

    移除指定的容體。-r 選項可以使作業重複執行。需要使用 -f 選項移除已啟用的容體。

  5. 使用 scsetup(1M) 註冊磁碟裝置群組配置變更,以更新全域名稱空間。

    請參閱SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)

ProcedureSPARC: 如何移除及註銷磁碟裝置群組 (VERITAS Volume Manager)

移除 Sun Cluster 磁碟裝置群組將會導致對應的 VxVM 磁碟群組被撤出,而不是被銷毀。不過,即使 VxVM 磁碟群組依然存在,除非重新註冊,否則不能用於叢集。

此程序會使用 scsetup(1M) 公用程式移除 VxVM 磁碟群組,並將其作為 Sun Cluster 磁碟裝置群組註銷。

步驟
  1. 成為叢集上任何節點的超級使用者。

  2. 使磁碟裝置群組離線。


    # scswitch -F -D disk-device-group
    
    -F

    使磁碟裝置群組離線。

    -D disk-device-group

    指定要離線的裝置群組。

  3. 輸入 scsetup 公用程式。

    顯示 Main Menu。


    # scsetup
    
  4. 若要使用 VxVM 裝置群組,請輸入 4 (裝置群組與容體)。

    會出現 Device Groups Menu。

  5. 若要註銷 VxVM 磁碟群組,請輸入 3 (註銷 VxVM 裝置群組)。

    請依指示進行,並輸入要註銷的 VxVM 磁碟群組。


範例 4–8 SPARC: 移除並註銷 VERITAS Volume Manager 磁碟裝置群組

以下範例顯示離線的 VxVM 磁碟裝置群組 dg1,以及 scsetup 在移除並取消註冊磁碟裝置群組時所產生的 scconf 指令。


# scswitch -F -D dg1
# scsetup

   scconf -r -D name=dg1

ProcedureSPARC: 如何新增節點至磁碟裝置群組 (VERITAS Volume Manager)

此程序使用 scsetup(1M) 公用程式將節點增加至磁碟裝置群組。

新增節點至 VxVM 磁碟裝置群組的必備條件如下:

步驟
  1. 成為叢集上任何節點的超級使用者。

  2. 出現提示符號時,請鍵入 scsetup 指令。


    # scsetup
    

    顯示 Main Menu。

  3. 若要使用 VxVM 磁碟裝置群組,請輸入 4 (裝置群組與容體)。

    會出現 Device Groups Menu。

  4. 若要新增節點到 VxVM 磁碟裝置群組,請輸入 4 (新增節點至 VxVM 裝置群組)。

    請依指示進行,同時輸入裝置群組與節點名稱。

  5. 確認節點是否已新增。

    請查詢下列指令顯示之新磁碟的裝置群組資訊。


    # scconf -p 
    

範例 4–9 SPARC: 增加節點至 VERITAS Volume Manager 磁碟裝置群組

以下範例顯示了 scsetup 增加節點 (phys-schost-3) 至 VxVM 磁碟裝置群組 (dg1) 時產生的 scconf 指令和驗證步驟。


# scsetup
 
scconf a D type=vxvm,name=dg1,nodelist=phys-schost-3
  
# scconf -p
Device group name:                dg1
   Device group type:             VXVM
   Device group failback enabled: yes
   Device group node list:        phys-schost-1, phys-schost-3

ProcedureSPARC: 如何從磁碟裝置群組移除節點 (VERITAS Volume Manager)

使用此程序從 VERITAS Volume Manager (VxVM) 磁碟裝置群組 (磁碟群組) 之潛在主要節點清單移除叢集節點。

步驟
  1. 確認節點仍然是群組的成員,且群組為 VxVM 裝置群組。

    VxVM 裝置群組類型表示一個 VxVM 磁碟裝置群組。


    phys-schost-1% scconf -pv | grep '(global-galileo)'
      (global-galileo) Device group type:              VxVM
      (global-galileo) Device group failback enabled:  no
      (global-galileo) Device group node list:         phys-schost-1, phys-schost-2
      (global-galileo) Diskset name:                   global-galileo
    phys-schost-1%
  2. 成為現行叢集成員節點的超級使用者。

  3. 執行 scsetup(1M) 指令。


    # scsetup
    

    顯示 Main Menu。

  4. 若要重新配置磁碟裝置群組,請輸入 4 (裝置群組與容體)。

  5. 若要從 VxVM 磁碟裝置群組移除節點,請鍵入 5 (從 VxVM 裝置群組移除節點)。

    依提示從磁碟裝置群組移除叢集節點。系統將詢問您以下項目的相關資訊:

    • VxVM 裝置群組

    • 節點名稱

  6. 確認已從 VxVM 磁碟裝置群組中移除節點。


    # scconf -p | grep Device
    

範例 4–10 SPARC: 從磁碟裝置群組 (VxVM) 中移除節點

此範例顯示從 dg1 VxVM 磁碟裝置群組移除名為 phys-schost-1 的節點。


[Determine the VxVM disk device group for the node:]
# scconf -p | grep Device
  Device group name:                 dg1
    Device group type:               VxVM
    Device group failback enabled:   no
    Device group node list:          phys-schost-1, phys-schost-2
    Device group diskset name:    	dg1
[Become superuser and execute the scsetup utility:]
# scsetup
 Select Device groups and volumes>Remove a node from a VxVM device group.

Answer the questions when prompted. 
You will need the following information.
  You Will Need:            Example:
  VxVM device group name    dg1
  node names                phys-schost-1

[Verify that the scconf command executed properly:] 
scconf -r -D name=dg1,nodelist=phys-schost-1
 
    Command completed successfully.
Quit the scsetupDevice Groups Menu and Main Menu.
[Verify that the node was removed:]
# scconf -p | grep Device
  Device group name:                 dg1
    Device group type:               VxVM
    Device group failback enabled:   no
    Device group node list:          phys-schost-2
    Device group diskset name:    	dg1

ProcedureSPARC: 如何從原始磁碟裝置群組移除節點

使用此程序從 VERITAS Volume Manager (VxVM) 磁碟裝置群組 (磁碟群組) 之潛在主要節點清單中,移除一個叢集節點。

使用此程序從原始磁碟裝置群組的潛在主要節點清單中,移除一個叢集節點。

步驟
  1. 不同於要移除的節點叢集中的一個節點上成為超級使用者。

  2. 找到與已移除節點連結的磁碟裝置群組。

    裝置群組節點清單項目中尋找節點名稱。


    # scconf -pvv | grep nodename | grep "Device group node list"
    
  3. 確認在步驟 2 找到的哪些磁碟裝置群組為原始磁碟裝置群組。

    原始磁碟裝置群組屬於 DiskLocal_Disk 裝置群組類型。


    # scconf -pvv | grep group-type
    
  4. 停用每一個 Local_Disk 原始磁碟裝置群組的 localonly 特性。


    # scconf -c -D name=rawdisk-device-group,localonly=false
    

    請參閱 scconf_dg_rawdisk(1M) 線上手冊,以取得有關 localonly 特性的更多資訊。

  5. 確認您已停用所有連結到已移除節點的原始磁碟裝置群組的 localonly 特性。

    Disk 裝置群組勒種類表示關閉原始磁碟裝置群組的 localonly 特性。


    # scconf -pvv | grep group-type 
    
  6. 從在步驟 3 中識別出的所有原始磁碟裝置群組移除節點。

    您必須針對連結至已移除節點的每一個原始磁碟裝置群組完成這個步驟。


    # scconf -r -D name=rawdisk-device-group,nodelist=nodename
    

範例 4–11 SPARC: 從原始磁碟裝置群組中移除節點

這個範例顯示如何從原始磁碟裝置群組移除節點 (phys-schost-2)。所有指令是從叢集的另一個節點執行 (phys-schost-1)。


[識別連接至要移除的節點的磁碟裝置群組:]
phys-schost-1# scconf -pvv | grep phys-schost-2 | grep "Device group node list"
	(dsk/d4) Device group node list:  phys-schost-2
	(dsk/d2) Device group node list:  phys-schost-1, phys-schost-2
	(dsk/d1) Device group node list:  phys-schost-1, phys-schost-2
[識別原始磁碟裝置群組:]
phys-schost-1# scconf -pvv | grep Disk
	(dsk/d4) Device group type:          Local_Disk
	(dsk/d8) Device group type:          Local_Disk
[停用節點上每個本機磁碟的 localonly 旗標:]
phys-schost-1# scconf -c -D name=dsk/d4,localonly=false
[驗證 localonly 旗標是否已停用:]
phys-schost-1# scconf -pvv | grep Disk 
    (dsk/d4) Device group type:          Disk
    (dsk/d8) Device group type:          Local_Disk
[從原始磁碟裝置群組中移除節點:]
phys-schost-1# scconf -r -D name=dsk/d4,nodelist=phys-schost-2

phys-schost-1# scconf -r -D name=dsk/d2,nodelist=phys-schost-2

phys-schost-1# scconf -r -D name=dsk/d1,nodelist=phys-schost-2

Procedure如何變更磁碟裝置特性

建立磁碟裝置群組的主要所有權的方法是以名為 preferenced 的所有權喜好設定屬性的設定值為基礎的。如果未設定此性質,則其他無所有者之磁碟裝置群組的主要所有者,會是第一個試圖存取該群組中磁碟的節點。不過,如果已經設定這個性質,您必須指定節點建立所有權時依據的喜好順序。

如果您停用 preferenced 屬性,則 failback 屬性也會自動停用。然而,如果您嘗試啟用或重新啟用 preferenced 屬性,則可以選擇啟用或停用 failback 屬性。

如果 preferenced 性質已經啟動或重新啟動,系統會要求您重新建立主要所有權喜好設定清單中的節點順序。

此程序使用 scsetup(1M) 設定或取消設定 Solstice DiskSuite/Solaris Volume Manager 或 VxVM 磁碟裝置群組的 preferenced 屬性和 failback 屬性。

若要執行這個程序,需要您要變更性質值之磁碟裝置群組的名稱。

步驟
  1. 成為叢集上任何節點的超級使用者。

  2. 執行 scsetup 指令。

    顯示 Main Menu。


    # scsetup
    
  3. 要使用磁碟裝置群組,請輸入 4 (裝置群組與容體)。

    會出現 Device Groups Menu。

  4. 若要變更裝置群組的主要特性,請輸入 6 (變更 VxVM 或 Solstice DiskSuite/Solaris Volume Manager 裝置群組的主要特性)。

    此時會顯示 Change Key Properties Menu

  5. 若要變更裝置群組特性,請輸入 1 (變更 preferenced 及/或 failback 特性)。

    請依指示來設定裝置群組的 preferencedfailback 選項。

  6. 確認磁碟裝置群組性質變更成功。

    請查詢下列指令顯示的裝置群組資訊。


    # scconf -p 
    

範例 4–12 變更磁碟裝置群組特性

以下範例顯示 scconf 指令 (scsetup 在設定磁碟裝置群組 dg-schost-1 的性質值時所產生)。


# scconf  -c -Dname=dg-schost-1,nodelist=phys-schost-1:phys-schost-2, \
preferenced=true,failback=enabled,numsecondaries=1

# scconf -p | grep Device
Device group name:                             dg-schost-1
   Device group type:                          SDS
   Device group failback enabled:              yes
   Device group node list:                     phys-schost-1, phys-schost-2
   Device group ordered node list:             yes
   Device group desired number of secondaries: 1
   Device group diskset name:                  dg-schost-1

Procedure如何變更裝置群組所要的次要節點數目

裝置群組之次要節點的預設數目設定為一個。這個設定會在主要節點故障時,用來指定裝置群組內可成為群組主要所有者的節點數目。所要次要節點數目的值,可以設為介於一和裝置群組中非主要提供者節點數目之間的任何整數。

如果 numsecondaries 特性改變,且此變更造成次要節點的實際數目與所要數目不符,則次要節點會新增或從裝置群組移除。

此程序使用 scsetup(1M) 設定或取消設定 Solstice DiskSuite/Solaris Volume Manager 或 VxVM 磁碟裝置群組的 numsecondaries 特性。請參閱 scconf_dg_rawdisk(1M)scconf_dg_sds(1M)scconf_dg_svm(1M)scconf_dg_vxvm(1M),以取得有關配置任何裝置群組時的磁碟裝置群組選項之資訊。

步驟
  1. 成為叢集上任何節點的超級使用者。

  2. 執行 scsetup 公用程式。


    # scsetup
    

    顯示 Main Menu。

  3. 若要使用磁碟裝置群組,請鍵入 5 (裝置群組與容體)。

    會出現 Device Groups Menu。

  4. 若要變更裝置群組的主要特性,請輸入 6 (變更裝置群組的主要特性)。

    顯示 Change Key Properties Menu。

  5. 若要變更所要的次要節點數目,請輸入 2 (變更 numsecondaries 特性)。

    依指示進行,同時輸入要為磁碟裝置群組配置的所要次要節點數目。輸入適當的值之後,便會執行對應的 scconf 指令,並印出一份記錄,且使用者會返回前一個功能表。

  6. 確認磁碟裝置群組性質變更成功。

    請查詢下列指令所顯示的裝置群組資訊。


    # scconf -p 
    

範例 4–13 變更所需的次要節點數目

以下範例顯示當 scsetup 配置裝置群組 (dg-schost-1) 所要的次要節點數目時,所產生的 scconf 指令。此範例假設磁碟群組及容體在先前便已建立。


# scconf -c -D name=phys-host-1,nodelist=phys-schost-1:phys-schost-2,phys-schost-3 \
preferenced=true,failback=enabled,numsecondaries=1

# scconf -p | grep Device
Device group name:                             dg-schost-1
   Device group type:                          SDS/SVM
   Device group failback enabled:              yes
   Device group node list:                     phys-schost-1, phys-scost-2, phys-schost-3 
   Device group ordered node list:             yes
   Device group desired number of secondaries: 1
   Device group diskset name:                  dg-schost-1

以下範例顯示使用空字串值來配置次要節點的預設數目。裝置群組將配置為使用預設值,即使預設值改變。


# scconf -c -D name=diskgrp1, nodelist=host1:host2:host3, \
preferenced=false,failback=enabled,numsecondaries= 
 # scconf -p | grep Device
Device group name:                             dg-schost-1
   Device group type:                          SDS/SVM
   Device group failback enabled:              yes
   Device group node list:                     phys-schost-1, phost-2, phys-schost-3
   Device group ordered node list:             yes
   Device group desired number of secondaries: 1
   Device group diskset name:                  dg-schost-1

Procedure如何列出磁碟裝置群組配置

您不必以超級使用者身份登入便可列出配置。

步驟

    請使用以下清單中的方法之一。

    • 使用 SunPlex Manager GUI。

      請參閱 SunPlex Manager 線上說明,以取得詳細資訊。

    • 使用 scstat(1M) 列出磁碟裝置群組配置。


      % scstat -D
      
    • 使用 scconf(1M) 列出磁碟裝置群組配置。


      % scconf -p
      

範例 4–14 使用 scstat 列出磁碟裝置群組配置

使用 scstat -D 指令可顯示下列資訊。


-- Device Group Servers --
                         Device Group           Primary             Secondary
                         ------------           -------             ---------
  Device group servers:  phys-schost-2          -                   -
  Device group servers:  phys-schost-1          phys-schost-2       phys-schost-3
  Device group servers:  phys-schost-3          -                   -
-- Device Group Status --
                              Device Group          Status              
                              ------------          ------              
  Device group status:        phys-schost-2          Offline
  Device group status:        phys-schost-1          Online
  Device group status:        phys-schost-3          Offline


範例 4–15 使用 scconf 列出磁碟裝置群組配置

當您使用 scconf 指令時,請查詢列於裝置群組下方的資訊。


# scconf -p
...
Device group name: dg-schost-1
	Device group type:              SDS/SVM
	Device group failback enabled:  yes
	Device group node list:         phys-schost-2, phys-schost-3
	Device group diskset name:      dg-schost-1

Procedure如何切換裝置群組的主要節點

此程序也可以用於啟動非使用中的裝置群組 (使其連線)。

您也可將非使用中的裝置群組予以連線,或使用 SunPlex Manager GUI 切換裝置群組的主要節點。請參閱 SunPlex Manager 線上說明,以取得詳細資訊。

步驟
  1. 成為叢集上任何節點的超級使用者。

  2. 使用 scswitch(1M) 切換磁碟裝置群組的主要節點。


    # scswitch -z -D disk-device-group -h node
    
    -z

    執行切換。

    -D disk-device-group

    指定要切換的裝置群組。

    -h node

    指定要切換至哪一個節點名稱,此節點會成為新的主要節點。

  3. 確認磁碟裝置群組已經成功切換到新的主要節點。

    如果磁碟裝置群組已正確註冊,在使用以下指令時,將顯示新磁碟裝置群組的資訊。


    # scstat -D
    

範例 4–16 切換磁碟裝置群組的主要節點

以下範例顯示如何切換磁碟裝置群組的主要節點以及驗證變更。


# scswitch -z -D dg-schost-1 -h phys-schost-1
# scstat -D

-- Device Group Servers --
                          Device Group               Primary             Secondary
                         ------------                -------             ---------
Device group servers:    dg-schost-1                 phys-schost-1       phys-schost-2
 
-- Device Group Status --
                                Device Group              Status              
                              ------------                ------              
  Device group status:        dg-schost-1                 Online

Procedure如何使磁碟裝置群組進入維護狀態

使裝置群組進入維護狀態可避免在存取其中一個裝置時,裝置群組自動連線。在完成需要所有 I/O 活動停止直到維修完成的維修程序後,您應使裝置群組處於維護狀態。使裝置群組處於維護狀態也可避免資料流失,可確保當一個節點的磁碟組或磁碟群組在維修時,磁碟裝置群組不會連線到另一個節點上。


備註 –

您必須先停止所有存取裝置的動作、卸載所有相依檔案系統,之後才能使該裝置群組進入維護狀態。


步驟
  1. 使裝置群組進入維護狀態。


    # scswitch -m -D disk-device-group
    
  2. 如果所執行的修復程序需要磁碟組或磁碟群組的所有權,請以手動方式匯入該磁碟組或磁碟群組。

    用於 Solstice DiskSuite/Solaris Volume Manager:


    # metaset -C take -f -s diskset
    

    注意 – 注意 –

    如果您要取得 Solstice DiskSuite/Solaris Volume Manager 磁碟組的所有權,則當裝置群組處於維護狀態時,必須使用 metaset -C take 指令。使用 metaset -t 會使裝置群組以部分所有權形式恢復連線。如果您要匯入 VxVM 磁碟群組,必須在匯入磁碟群組時使用 -t 旗標。如此可避免在此節點重新啟動時,產生自動匯入磁碟群組的情形。


    針對 VERITAS Volume Manager:


    # vxdg -t import disk-group-name
    
  3. 完成任何需要執行的維修程序。

  4. 釋放磁碟組或磁碟群組的所有權。


    注意 – 注意 –

    使磁碟裝置群組脫離維護狀態前,您必須釋放磁碟組或磁碟群組的所有權。未完成此程序將可能造成資料流失。


    • 用於 Solstice DiskSuite/Solaris Volume Manager:


      # metaset -C release -s diskset
      
    • 針對 VERITAS Volume Manager:


      # vxdg deport disk-group-name
      
  5. 使磁碟裝置群組進入連線狀態。


    # scswitch -z -D disk-device-group -h node
    

範例 4–17 使磁碟裝置群組進入維護狀態

此範例顯示如何使磁碟裝置群組 dg-schost-1 進入維護狀態,以及如何從維護狀態移除磁碟裝置群組。


[Place the disk device group in maintenance state.]
# scswitch -m -D dg-schost-1
 
[If needed, manually import the diskset or disk group.]
For Solstice DiskSuite/Solaris Volume Manager:
  # metaset -C take -f -s dg-schost-1
For VERITAS Volume Manager:
  # vxdg -t import dg1
  
[Complete all necessary repair procedures.]
  
[Release ownership.]
For Solstice DiskSuite/Solaris Volume Manager:
  # metaset -C release -s dg-schost-1
For VERITAS Volume Manager:
  # vxdg deport dg1
  
[Bring the disk device group online.]
# scswitch -z -D dg-schost-1 -h phys-schost-1

管理叢集檔案系統

叢集檔案系統是一個可以從叢集的任一節點讀取與存取的整體可用檔案系統。

表 4–3 對應作業:管理叢集檔案系統

作業 

如需相關說明,請參閱 … 

初次安裝 Sun Cluster 之後新增叢集檔案系統 

- 使用 newfs(1M)mkdir

如何新增叢集檔案系統

移除叢集檔案系統 

- 使用 fuser(1M)umount(1M)

如何移除叢集檔案系統

檢查叢集中整體裝載點跨節點的一致性 

- 使用 sccheck(1M)

如何檢查叢集中的整體裝載

Procedure如何新增叢集檔案系統

初次安裝 Sun Cluster 後,請對建立的每一個叢集檔案系統執行這個程序。


注意 – 注意 –

請務必指定正確的磁碟裝置名稱。建立叢集檔案系統會毀損該磁碟中的所有資料。如果您指定錯誤的裝置名稱,您可能會消除不想刪除的資料。


新增其他叢集檔案系統的必備條件如下:

如果您已使用 SunPlex Manger 來安裝資料服務,而且有足夠用來建立叢集檔案系統的共用磁碟,那麼就已經有一個或多個叢集檔案系統存在了。

步驟
  1. 成為叢集中任何節點的超級使用者。


    提示 –

    若要快速建立檔案系統,請在您想建立檔案系統之整體裝置的現行主要節點上成為超級使用者。


  2. 使用 newfs 指令建立檔案系統。


    備註 –

    newfs 指令只有在建立新的 UFS 檔案系統時才有效。要建立新的 VxFS 檔案系統,請遵循 VxFS 說明文件中所列的程序。



    # newfs raw-disk-device
    

    下表顯示 raw-disk-device 引數的名稱範例。請注意,每個容體管理程式的命名慣例都不一樣。

    如果您的容體管理程式是 … 

    磁碟裝置名稱可能是 … 

    描述 

    Solstice DiskSuite/Solaris Volume Manager 

    /dev/md/oracle/rdsk/d1

    oracle 磁碟組中的原始磁碟裝置 d1

    SPARC:VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    原始磁碟裝置 vol01,在 oradg 磁碟組內 。

    無 

    /dev/global/rdsk/d1s3

    區塊片段 d1s3 的原始磁碟裝置。

  3. 在叢集的每一個節點上,建立叢集檔案系統的裝載點目錄。

    每一個節點均需要一個裝載點,即使不會從此節點存取叢集檔案系統。


    提示 –

    為方便管理,請在 /global/device-group 目錄中建立裝載點。這個位置可讓您容易區分叢集檔案系統是整體可用或本機檔案系統。



    # mkdir -p /global/device-group mountpoint
    
    device-group

    與包含裝置的裝置群組名稱相對應的目錄名稱。

    mountpoint

    要裝載叢集檔案系統的目錄名稱。

  4. 在叢集的每一個節點上,將裝載點的項目加入 /etc/vfstab 檔。

    1. 使用下列的必要裝載選項。


      備註 –

      記錄對所有的叢集檔案系統是必要的。


      • Solaris UFS 記錄 – 使用 global,logging 掛載選項。請參閱 mount_ufs(1M) 線上手冊,以取得有關 UFS 掛載選項的更多資訊。


        備註 –

        syncdir 裝載選項對於 UFS 叢集檔案系統而言並非必要。如果指定 syncdir,您可以獲得保證的 POSIX 相容檔案系統功能。如果沒有指定,您所看到功能將會與 UFS 檔案系統相同。當未指定 syncdir 時,可以明顯地增進配置磁碟區塊的寫入功能,例如在檔案中附加資料的情況時。但在某些情況下,如果沒有 syncdir,除非您關閉檔案,否則將不會發現空間不足的狀況。因為沒有指定 syncdir 而發生問題,這種機率非常小。使用 syncdir (和 POSIX 功能),在關閉之前就可發現空間不足的狀況。


      • Solstice DiskSuite/Solaris Volume Manager 異動中介裝置或異動容體 – 使用 global 掛載選項 (請勿使用 logging 掛載選項)。請參閱您的 Solstice DiskSuite/Solaris Volume Manager 說明文件,以取得有關設定異動複合裝置及異動容體的資訊。


        備註 –

        未來的 Solaris 發行版本將從 Solaris 作業系統中移除作業事件容體。從 Solaris 8 版次開始有的 Solaris UFS 記錄提供了相同的功能,但是效能更佳,還能減少系統管理需求及負擔。


      • VxFS 記錄 – 使用 globallog 掛載選項。請參閱 VxFS 軟體隨附的 mount_vxfs 線上說明手冊,以取得詳細資訊。

    2. 若要自動裝載叢集檔案系統,請將 mount at boot 欄位設定為 yes

    3. 對每一個叢集檔案系統,確定其 /etc/vfstab 項目中的資訊在每一個節點上都相同。

    4. 請確定每一個節點的 /etc/vfstab 檔案中的項目是以相同次序列示裝置。

    5. 檢查檔案系統的啟動順序相依關係。

      例如,考慮以下情況,phys-schost-1 裝載磁碟裝置 d0/global/oracle 上,而 phys-schost-2 則裝載磁碟裝置 d1/global/oracle/logs 上。使用此配置,phys-schost-2 只有在 phys-schost-1 啟動並掛載 /global/oracle 後才能夠啟動並掛載 /global/oracle/logs

    請參閱 vfstab(4) 線上援助頁,以取得詳細資訊。

  5. 在叢集的任一個節點上,驗證裝載點存在而且 /etc/vfstab 檔案項目在叢集的所有節點上都正確。


     # sccheck
    

    如果沒有錯誤,則沒有執行動作。

  6. 從叢集的任一節點裝載叢集檔案系統。


    # mount /global/device-group mountpoint
    
  7. 在叢集的每一個節點上,驗證叢集檔案系統已經裝載。

    您可以使用 dfmount 指令來列出已裝載的檔案系統。

    若要在 Sun Cluster 環境中管理 VxFS 叢集檔案系統,您只能從裝載 VxFS 叢集檔案系統的主要節點上執行管理指令。


範例 4–18 增加叢集檔案系統

以下範例可以在 Solstice DiskSuite/Solaris Volume Manager 中介裝置或容體 /dev/md/oracle/rdsk/d1 上建立 UFS 叢集檔案系統。


# newfs /dev/md/oracle/rdsk/d1
...
 
[在每個節點上:]
# mkdir -p /global/oracle/d1
 
# vi /etc/vfstab
#device                device                 mount            FS  fsck  mount   mount
#to mount              to fsck                point           type pass  at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging

[儲存並結束]
 
[on one node:]
# sccheck
# mount /dev/md/oracle/dsk/d1 /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles 
on Sun Oct 3 08:56:16 2001

Procedure如何移除叢集檔案系統

您只要執行卸載,便可以移除叢集檔案系統。如果您還要移除或刪除資料,請從系統移除基礎磁碟裝置 (或複合裝置或容體)。


備註 –

您執行 scshutdown(1M) 以停止整個叢集時,叢集檔案系統會作為執行系統關閉的一部分自動卸載。當您執行 shutdown 以停止單一節點時,不會卸載叢集檔案系統。不過,如果要關機的節點是唯一連到磁碟的節點,則對該磁碟上叢集檔案系統的任何存取都會導致錯誤。


卸載叢集檔案系統的必備條件如下:

步驟
  1. 成為叢集中任何節點的超級使用者。

  2. 判斷哪些叢集檔案系統已經裝載。


    # mount -v
    
  3. 在每一個節點上,列示使用叢集檔案系統的所有處理,來查知您要停止的處理。


    # fuser -c [ -u ] mountpoint
    
    -c

    產生檔案系統之裝載點以及所裝載之檔案系統內之檔案的報告。

    -u

    (選用性) 顯示每一個處理 ID 的使用者登入名稱。

    mountpoint

    指定您要停止處理的叢集檔案系統名稱。

  4. 在每一個節點上,停止叢集檔案系統的所有處理。

    請使用慣用的方法停止處理。如果必要,請使用以下指令來強迫結束與叢集檔案系統關聯的處理。


    # fuser -c -k mountpoint
    

    將會傳送 SIGKILL 給每一個使用叢集檔案系統的處理。

  5. 在每個節點上,確認沒有其他程序正在使用檔案系統。


    # fuser -c mountpoint
    
  6. 從一個節點卸載檔案系統。


    # umount mountpoint
    
    mountpoint

    指定您要卸載的叢集檔案系統名稱,這可以是裝載叢集檔案系統的目錄名稱,也可以是檔案系統的裝置名稱路徑。

  7. (選用) 編輯 /etc/vfstab 檔,刪除要移除之叢集檔案系統的項目。

    請對每一個 /etc/vfstab 檔中含有該叢集檔案系統項目的叢集節點,執行這個步驟。

  8. (可選擇) 移除磁碟裝置 group/metadevice/volume/plex

    請參閱容體管理程式說明文件,以取得詳細資訊。


範例 4–19 移除叢集檔案系統

以下範例會移除 Solstice DiskSuite/Solaris Volume Manager 中介裝置或容體 /dev/md/oracle/rdsk/d1 上掛載的 UFS 叢集檔案系統。


# mount -v
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles 
# fuser -c /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c -k /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c /global/oracle/d1
/global/oracle/d1:
# umount /global/oracle/d1
 
(on each node, remove the highlighted entry:)
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
[Save and exit.]

要移除叢集檔案系統上的資料,請移除其基礎裝置。請參閱容體管理程式說明文件,以取得詳細資訊。


Procedure如何檢查叢集中的整體裝載

The sccheck(1M) 公用程式可驗證 /etc/vfstab 檔案中叢集檔案系統項目的語法。如果沒有錯誤,則沒有執行動作。


備註 –

請在進行影響裝置或容體管理元件的叢集配置變更 (例如移除叢集檔案系統) 後執行 sccheck


步驟
  1. 成為叢集中任何節點的超級使用者。

  2. 檢查叢集整體裝載。


     # sccheck
    

管理磁碟路徑監視

磁碟路徑監視 (DPM) 管理指令可讓您收到次要磁碟路徑故障的通知。使用本節中的程序來執行與監視磁碟路徑關聯的管理作業。請參閱「Sun Cluster 概念指南 (適用於 Solaris 作業系統)」中的第 3 章「針對系統管理員和應用程式開發者的重要概念」,以取得有關磁碟路徑監視常駐程式的概念資訊。請參閱 scdpm(1M) 線上手冊,以取得有關 scdpm 指令選項及相關指令的說明。請參閱 syslogd(1M) 線上手冊,以取得常駐程式報告的所記錄的錯誤。


備註 –

當使用 scgdevs 指令或 scdidadm 指令將 I/O 裝置新增至某個節點時,磁碟路徑會自動新增至受監視的監視清單中。當使用 Sun Cluster 指令從某個節點移除裝置時,磁碟路徑也會自動取消監視。


表 4–4 對應作業:管理磁碟路徑監視

作業 

相關說明 

使用 scdpm 指令監視磁碟路徑

如何監視磁碟路徑

使用 scdpm 指令取消監視磁碟路徑

如何取消監視磁碟路徑

使用 scdpm 指令列印節點的故障磁碟路徑的狀態

如何列印發生故障的磁碟路徑

使用 scdpm -f 指令監視或取消監視檔案的磁碟路徑

如何監視檔案的磁碟路徑

以下一節中的程序會發出具有磁碟路徑引數的指令 scdpm。磁碟路徑引數總是由節點名稱與磁碟名稱構成。如果未指定任何節點,則不需要節點名稱,而預設為 all。下表說明了用於命名磁碟路徑的慣例。


備註 –

極力建議您使用全域磁碟路徑名稱,因為全域磁碟路徑名稱在整個叢集中是一致的。UNIX 磁碟路徑名稱在整個叢集中是不一致的。一個磁碟的 UNIX 磁碟路徑在叢集節點之間可以不同。磁碟路徑可以在一個節點上為 c1t0d0,而在另一個節點上為 c2t0d0。如果您使用 UNIX 磁碟路徑名稱,請在發出 DPM 指令之前,使用 scdidadm -L 指令將 UNIX 磁碟路徑名稱對應至全域磁碟路徑名稱。請參閱 scdidadm(1M) 線上手冊。


表 4–5 範例磁碟路徑名稱

名稱類型 

範例磁碟路徑名稱 

描述 

整體磁碟路徑 

phys-schost-1:/dev/did/dsk/d1

phys-schost-1 節點上的磁碟路徑 d1

all:d1

叢集內所有節點上的磁碟路徑 d1

UNIX 磁碟路徑 

phys-schost-1:/dev/rdsk/c0t0d0s0

phys-schost-1 節點上的磁碟路徑 c0t0d0s0

phys-schost-1:all

叢集中所有節點上的全部磁碟路徑 

Procedure如何監視磁碟路徑

執行此作業以監視叢集中的磁碟路徑。


注意 – 注意 –

如果節點執行的是 Sun Cluster 3.1 10/03 發行版本之前的軟體版本,則該節點上不支援 DPM。當進行滾動升級時,請勿使用 DPM 指令。在升級了所有節點後,節點必須在線上才能使用 DPM 指令。


步驟
  1. 成為叢集中任何節點的超級使用者。

  2. 使用 scdpm 指令監視磁碟路徑。


    # scdpm -m node:disk path
    

    請參閱以取得 node:disk path 引數的命名慣例。

  3. 確認已監視磁碟路徑。


    # scdpm -p node:all	     
    

範例 4–20 監視單一節點上的磁碟路徑

在以下範例中,從單一節點監視 schost-1:/dev/did/rdsk/d1 磁碟路徑。只有節點 schost-1 上的 DPM 常駐程式監視磁碟路徑 /dev/did/dsk/d1


# scdpm -m schost-1:d1
# scdpm -p schost-1:d1
	     schost-1:/dev/did/dsk/d1   Ok


範例 4–21 監視所有節點上的磁碟路徑

在以下範例中,從所有節點監視 schost-1:/dev/did/dsk/d1 磁碟路徑。在 /dev/did/dsk/d1 為有效路徑的所有節點上啟動 DPM。


# scdpm -m all:/dev/did/dsk/d1
# scdpm -p schost-1:d1
	     schost-1:/dev/did/dsk/d1   Ok	    


範例 4–22 從 CCR 重新讀取磁碟配置

以下範例強制常駐程式讀取 CCR 的磁碟配置,並列印帶有狀態的監視磁碟路徑。


# scdpm -m all:all 
# scdpm -p all:all
		 schost-1:/dev/did/dsk/d4   Ok
	     schost-1:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d4   Fail
	     schost-2:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d5   Unmonitored
	     schost-2:/dev/did/dsk/d6   Ok

Procedure如何取消監視磁碟路徑

使用此程序取消監視磁碟路徑。


注意 – 注意 –

如果節點執行的是 Sun Cluster 3.1 10/03 發行版本之前的軟體版本,則該節點上不支援 DPM。當進行滾動升級時,請勿使用 DPM 指令。在升級了所有節點後,節點必須在線上才能使用 DPM 指令。


步驟
  1. 成為叢集中任何節點的超級使用者。

  2. 決定要取消監視的磁碟路徑之狀態。


    # scdpm -p [all:] disk path
    
    -p

    列印指定磁碟路徑之目前狀態的詳細清單

    [:all]

    顯示所有的已監視與已取消監視的磁碟路徑

  3. 在每一個節點上,取消監視適當的磁碟路徑。


    # scdpm -u  node:disk path
    

    請參閱表 4–5,以取得 node:disk path 引數的命名慣例。


範例 4–23 取消監視磁碟路徑

在以下範例中,取消監視 schost-2:/dev/did/rdsk/d1 磁碟路徑,並列印了帶有整個叢集狀態的磁碟路徑。


# scdpm -u schost-2:/dev/did/rdsk/d1
# scdpm -p all:all 
	     schost-1:/dev/did/dsk/d4   Ok
	     schost-1:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d4   Fail
	     schost-2:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d1   Unmonitored
	     schost-2:/dev/did/dsk/d6   Ok

Procedure如何列印發生故障的磁碟路徑

使用以下程序列印叢集中的故障磁碟路徑。


注意 – 注意 –

如果節點執行的是 Sun Cluster 3.1 10/03 發行版本之前的軟體版本,則該節點上不支援 DPM。當進行滾動升級時,請勿使用 DPM 指令。在升級了所有節點後,節點必須在線上才能使用 DPM 指令。


步驟
  1. 成為叢集中任何節點的超級使用者。

  2. 列印整個叢集中的故障磁碟路徑。


    # scdpm -p -F node:disk path
    

    請參閱表 4–5,以取得 node:disk path 引數的命名慣例。


範例 4–24 列印發生故障的磁碟路徑

以下範例列印了整個叢集的故障磁碟路徑。


# scdpm -p -F [all:]all
		 schost-1:/dev/did/dsk/d4   Fail
	     schost-1:/dev/did/dsk/d3   Fail
	     schost-2:/dev/did/dsk/d4   Fail
	     schost-2:/dev/did/dsk/d3   Fail
	     schost-2:/dev/did/dsk/d5   Fail
	     schost-2:/dev/did/dsk/d6   Fail

Procedure如何監視檔案的磁碟路徑

使用以下程序監視或取消監視檔案的磁碟路徑。檔案必須列出要監視或要取消監視的指令、節點名稱以及磁碟路徑名稱。檔案的每個欄位應該以欄分隔。透過以下範例格式化每一個清單。


syntax in command file:
[u,m] [node|all]:<[/dev/did/rdsk/]d- | [/dev/rdsk/]c-t-d- | all>


command file entry
u schost-1:/dev/did/rdsk/d5
m schost-2:all

注意 – 注意 –

如果節點執行的是 Sun Cluster 3.1 10/03 發行版本之前的軟體版本,則該節點上不支援 DPM。當進行滾動升級時,請勿使用 DPM 指令。在升級了所有節點後,節點必須在線上才能使用 DPM 指令。


步驟
  1. 成為叢集中任何節點的超級使用者。

  2. 監視檔案的磁碟路徑。


    # scdpm -f filename
    
  3. 確認帶有狀態的叢集磁碟路徑。


    # scdpm -p all:all
    	    
    

範例 4–25 監視或取消監視檔案的磁碟路徑

以下範例監視或取消監視檔案的磁碟路徑。


# scdpm -f schost_config
# scdpm -p all:all 
	     schost-1:/dev/did/dsk/d4   Ok
	     schost-1:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d4   Fail
	     schost-2:/dev/did/dsk/d3   Ok
	     schost-2:/dev/did/dsk/d5   Unmonitored
	     schost-2:/dev/did/dsk/d6   Ok