Sun Cluster 系統管理指南(適用於 Solaris 作業系統)

第 5 章 管理全域裝置、磁碟路徑監視以及叢集檔案系統

本章提供關於管理全域裝置、磁碟路徑監視與叢集檔案系統的資訊和程序。

如需有關本章中相關程序的高階說明,請參閱表 5–3

如需關於全域裝置、全域名稱空間、裝置群組、磁碟路徑監視以及叢集檔案系統的概念資訊,請參閱「Sun Cluster Concepts Guide for Solaris OS 」

管理全域裝置和全域名稱空間的簡介

Sun Cluster 裝置群組的管理需視安裝在叢集上的磁碟區管理程式而定。Solaris Volume Manager是一種「叢集意識」,您可以使用 Solaris Volume Manager metaset(1M) 指令來增加、註冊及移除裝置群組。如果您使用的是 VERITAS Volume Manager (VxVM),可以使用 VxVM 指令來建立磁碟群組。您可使用 clsetup 公用程式將磁碟群組註冊為Sun Cluster 裝置群組。在移除 VxVM 裝置群組時,需同時使用 clsetup 指令和 VxVM 指令。


備註 –

至於 Solaris 10 作業系統,全域裝置不可從非全域區域直接存取。


Sun Cluster 軟體會自動為叢集中的每一個磁碟及磁帶裝置建立原始磁碟裝置群組。不過叢集裝置群組仍會保持離線狀態,除非您將群組作為全域裝置來存取。在管理裝置群組或磁碟區管理程式磁碟群組時,您必須位在該群組之主要節點的叢集節點。

通常您不需要管理全域裝置名稱空間。安裝時會自動設置全域名稱空間,並會在 Solaris 作業系統重新啟動時自動更新名稱空間。不過,如果全域名稱空間需要更新,您可以從任一個叢集節點執行 cldevice populate 指令。這個指令會使所有其他叢集節點成員,以及未來可能加入該叢集之節點上的全域名稱空間都被更新。

Solaris Volume Manager的全域裝置許可權

對全域裝置許可權所做的變更,不會自動傳遞至 Solaris Volume Manager 與磁碟裝置之叢集中的所有節點。如果您要變更全域裝置的許可權,您必須手動變更叢集中每一個節點的許可權。例如,如果您想將全域裝置 /dev/global/dsk/d3s0 的許可權變更為 644,您必須在叢集中的所有節點上發出以下指令:

# chmod 644 /dev/global/dsk/d3s0

VxVM 不支援 chmod 指令。若要變更 VxVM 中的全域裝置許可權,請參閱 VxVM 管理指南。

全域裝置的動態重新配置

若要完成叢集中磁碟與磁帶裝置上的動態重新配置 (DR) 作業,您必須考慮下列問題。


注意 – 注意 –

如果您在次要節點上執行 DR 作業時,現行的主要節點發生故障,叢集可用性將會受到影響。除非提供新的次要節點,否則主要節點沒有地方可以進行故障轉移。


若要在全域裝置上執行 DR 作業,請依順序完成下列步驟。

表 5–1 對應作業:磁碟與磁帶裝置的動態重新配置

作業 

相關說明 

1. 如果必須在現行的主要節點上執行會影響作用中裝置群組的 DR 作業,那麼在裝置上執行 DR 移除作業之前,請先切換主要及次要節點。 

如何切換裝置群組的主要節點

2. 在要移除的裝置上執行 DR 移除作業。 

位於「Solaris 9 on Sun Hardware」及「Solaris 10 on Sun Hardware」集合中的「Sun Enterprise 10000 DR Configuration Guide」及「Sun Enterprise 10000 Dynamic Reconfiguration Reference Manual 」。

SPARC: VERITAS Volume Manager管理注意事項

管理以儲存為基礎的複製裝置

您可配置 Sun Cluster 裝置群組以包含藉由使用以儲存為基礎的複製而複製的裝置。Sun Cluster 支援使用Hitachi TrueCopy 軟體進行以儲存為基礎的複製。

您必須先熟悉 Hitachi TrueCopy 文件,同時您的系統上必須已安裝 Hitachi TrueCopy 產品和最新的 Hitachi TrueCopy 修補程式,然後才能使用 Hitachi TrueCopy 軟體複製資料。如需關於安裝 Hitachi TrueCopy 軟體的資訊,請參閱 Hitachi TrueCopy 產品文件。

Hitachi TrueCopy 軟體會將一對裝置配置為複本,其中一項裝置作為主要複本,另一項裝置則作為次要複本。於任何時間,連接至節點組的裝置將會做為主要副本。連接至其他節點組的裝置會成為次要副本。

在 Sun Cluster中,每當移動副本所屬的 Sun Cluster 裝置群組時,主要副本會被自動移動。因此,在 Sun Cluster 中絕不可通過直接發出horcmtakeover 來移動主要複本 。而是應利用移動相關聯的 Sun Cluster 裝置群組來完成接管。

下表列出設定以儲存為基礎的複製裝置時您所必須執行的作業。

表 5–2 作業對映:管理以儲存為基礎的複製裝置。

作業 

操作說明 

在您的儲存裝置與節點上安裝 TrueCopy 軟體。 

隨附於 Hitachi 儲存裝置的文件 

配置 Hitachi 複製群組。 

如何配置 Hitachi TrueCopy 複製群組

配置 DID 裝置。 

如何配置複製的 DID 裝置

註冊複製群組。 

如何增加與註冊裝置群組 (Solaris Volume Manager)

驗證配置。 

如何驗證複製的全域裝置群組名稱

Procedure如何配置 Hitachi TrueCopy 複製群組

開始之前

首先,在主要叢集中的共用磁碟配置 Hitachi TrueCopy 裝置群組。此配置資訊指定於擁有進入 Hitachi 陣列權限的各叢集節點的 /etc/horcm.conf 檔案。如需更多關於如何配置 /etc/horcm.conf 檔案的資訊,請參閱「Sun StorEdge SE 9900 V Series Command and Control Interface User and Reference Guide」。

  1. 在連接至儲存陣列的節點上,成為超級使用者,或成為提供 solaris.cluster.modify RBAC 授權的角色。

  2. 增加 horcm 項目到 /etc/services 檔案。


    horcm  9970/udp

    為新項目指定連接埠編號和通訊協定名稱。

  3. 指定 /etc/horcm.conf 檔案中的 Hitachi TrueCopy 裝置群組配置資訊。

    如需相關指示,請參閱隨附於 TrueCopy 軟體的文件。

  4. 在所有節點上執行 horcmstart.sh 指令以啟動 TrueCopy CCI 常駐程式。


    # /usr/bin/horcmstart.sh
  5. 如果您尚未建立副本組,請現在建立。

    請使用 paircreate 指令以想要的阻擋等級來建立您的副本組。如需關於建立複製組的指示,請參閱您的 TrueCopy 文件。

  6. 在每個配置複製裝置的節點上,使用pairdisplay 指令驗證資料複製是否正確地設定。


    # pairdisplay -g group-name
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR DATA ,12345 29   -
    group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR DATA ,----- 58   -
  7. 請驗證所有節點是否皆可管理複製群組。

    1. 使用 pairdisplay 指令來判定哪個節點包含主要副本,哪個節點包含次要副本。


      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR DATA ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR DATA ,----- 58   -

      處於 P-VOL 狀態並具有本機 (L) 裝置的節點包含主要副本,而處於 S-VOL 狀態;具有本機 (L) 裝置的節點包含次要副本。

    2. 藉由在包含次要副本的的節點上執行 horctakeover 指令來讓次要節點變為主要節點。


      # horctakeover -g group-name
      

      在前進至下個步驟前,請先等待初始資料複製完成。

    3. 現在驗證執行 horctakeover 的節點是否在P-VOL 狀態中擁有本機 (L) 裝置。


      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..S-VOL PAIR DATA ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..P-VOL PAIR DATA ,----- 58   -
    4. 在原本就包含主要副本的節點上執行 horctakeover 指令。


      # horctakeover -g group-name
      
    5. 執行 pairdisplay 指令來驗證主要節點是否已變更回原始的配置。


      # pairdisplay -g group-name
      Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
      group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR DATA ,12345 29   -
      group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR DATA ,----- 58   -
接下來的步驟

遵循如何配置複製的 DID 裝置中的指示以繼續您複製裝置的配置。

Procedure如何配置複製的 DID 裝置

開始之前

為您的複製裝置配置裝置群組後,您必須配置複製裝置使用的裝置辨識器 (DID) 驅動程式。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 在叢集的任一節點上成為超級使用者或成為提供 solaris.cluster.modify RBAC 授權的角色。

  2. 確認 horcm 常駐程式是否在所有節點上執行。


    # /usr/bin/horcmstart.sh
  3. 執行 pairdisplay 指令來判定哪個節點包含次要副本。


    # pairdisplay -g group-name
    Group PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#,P/S,Status,Fence,Seq#,P-LDEV# M 
    group-name pair1(L) (CL1-C , 0, 9) 54321   58..P-VOL PAIR DATA ,12345 29   -
    group-name pair1(R) (CL1-A , 0, 29)12345   29..S-VOL PAIR DATA ,----- 58   -

    處於 S-VOL 狀態;擁有本機 (L) 裝置的節點包含次要副本。

  4. 在擁有次要副本的節點上 (如上個步驟所判定般),配置 DID 裝置與以儲存為基礎的複製一起使用。

    此指令將兩個分開的裝置副本組的 DID 實例合併成一個邏輯 DID 裝置。 單一實例可讓來自兩個節點的磁碟區管理軟體使用該裝置。


    注意 – 注意 –

    如果連接多個節點至次要副本,請僅在這些節點中的其中之一執行此指令。



    # cldevice replicate -D 主要複本節點名稱 -S 次要複本節點名稱
    
    primary-replica-nodename

    指定包含主要副本的遠端節點名稱。

    -S

    指定目前節點以外的來源節點。

    次要複本節點名稱

    指定包含次要複本的遠端節點名稱。


    備註 –

    根據預設,目前的節點即為來源節點。使用 -S 選項來指定不同的來源節點。


  5. 驗證 DID 實例是否已合併。


    # cldevice list -v device
    
  6. 驗證 TrueCopy 複製是否已設定。


    # cldevice show device |
    
  7. 如果 DID 重新對映無法成功地合併所有的複製裝置,請以手動合併各個複製裝置。


    注意 – 注意 –

    以手動合併 DID 實例時,需非常小心。不正確的裝置重新對映會導致資料毀損。


    1. 在包含次要副本的節點上,執行 cldevice combine 指令。此節點必須為本機節點。


      # cldevice combine -d destination-instance source-instance
      
      -d destination-instance

      遠端 DID 實例,可對應主要副本。

      來源實例

      本機 DID 實例,可對應次要副本。

    2. 請驗證 DID 重新對映是否成功發生。


      # cldevice list desination-instance source-instance
      

    不應列出其中一項 DID 實例。

  8. 在所有節點上,驗證所有合併的 DID 實例之 DID 裝置是否皆可存取。


    # cldevice list -v
    
接下來的步驟

若要完成您複製裝置群組的配置,請執行下列程序中的步驟。

Procedure如何驗證複製的全域裝置群組名稱

開始之前

您必須先建立全域裝置群組,再進行驗證。如需關於建立 Solstice DiskSuite 或 Solaris Volume Manager 裝置群組的資訊,請參閱如何增加與註冊裝置群組 (Solaris Volume Manager)。如需關於建立 VERITAS Volume Manager 裝置群組的資訊,請參閱SPARC: 如何在封裝磁碟時建立新的磁碟群組 (VERITAS Volume Manager)

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 請驗證主要裝置群組對應的節點與包含主要副本的節點是否是相同的。


    # pairdisplay -g group-name
    # cldevicegroup status -n nodename group-name
    
  2. 執行嘗試性的切換以確保裝置群組正確地配置且副本可在節點間移動。

    如果裝置群組處於離線狀態,請先恢復其連線。


    # cldevicegroup switch -n nodename group-name
    
    -n nodename

    已切換裝置群組中的節點。此節點會成為新的主要節點。

  3. 藉由比較下列指令的輸出來驗證切換是否成功。


    # pairdisplay -g group-name
    # cldevicegroup status -n nodename group-name
    

範例:配置 Sun Cluster 的 TrueCopy 複製群組

此範例完成在您的叢集中設定 TrueCopy 複製所必要的 Sun Cluster 特定步驟。此範例假設您已執行下列作業:

本範例包含使用 TrueCopy 的三節點叢集。叢集被分別分在兩個遠端站點,一個站點兩個節點,另一個站點為一個節點。每個站點擁有它自己的 Hitachi 儲存裝置。

下列範例會在各節點上顯示 TrueCopy /etc/horcm.conf 配置檔。


範例 5–1 節點 1 上的 TrueCopy 配置檔


HORCM_DEV 
#dev_group     dev_name    port#       TargetID     LU#       MU# 
VG01           pair1       CL1-A         0          29 
VG01           pair2       CL1-A         0          30 
VG01           pair3       CL1-A         0          31 
HORCM_INST 
#dev_group     ip_address   service 
VG01           node-3       horcm


範例 5–2 節點 2 上的 TrueCopy 配置檔


HORCM_DEV 
#dev_group        dev_name       port#       TargetID    LU#       MU#
VG01              pair1          CL1-A         0         29 
VG01              pair2          CL1-A         0         30 
VG01              pair3          CL1-A         0         31 
HORCM_INST 
#dev_group        ip_address      service 
VG01              node-3          horcm


範例 5–3 節點 3 上的 TrueCopy 配置檔


HORCM_DEV 
#dev_group        dev_name       port#       TargetID    LU#       MU# 
VG01              pair1          CL1-C         0         09 
VG01              pair2          CL1-C         0         10 
VG01              pair3          CL1-C         0         11 
HORCM_INST 
#dev_group        ip_address      service 
VG01              node-1          horcm 
VG01              node-2          horcm

在現行的範例中,有三個 LUN 在兩個站點間進行複製。LUN 皆位在名為 VG01 的複製群組中。pairdisplay 指令可驗證此資訊並顯示節點 3 擁有主要副本。


範例 5–4 節點 1 上的 pairdisplay 指令輸出


# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-A , 0, 29)61114   29..S-VOL PAIR DATA  ,-----    58  - 
VG01    pair1(R)    (CL1-C , 0,  9)20064   58..P-VOL PAIR DATA  ,61114    29  - 
VG01    pair2(L)    (CL1-A , 0, 30)61114   30..S-VOL PAIR DATA  ,-----    59  - 
VG01    pair2(R)    (CL1-C , 0, 10)20064   59..P-VOL PAIR DATA  ,61114    30  - 
VG01    pair3(L)    (CL1-A , 0, 31)61114   31..S-VOL PAIR DATA  ,-----    60  - 
VG01    pair3(R)    (CL1-C , 0, 11)20064   60..P-VOL PAIR DATA  ,61114    31  -


範例 5–5 節點 2 上的 pairdisplay 指令輸出


# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-A , 0, 29)61114   29..S-VOL PAIR DATA  ,-----    58  - 
VG01    pair1(R)    (CL1-C , 0,  9)20064   58..P-VOL PAIR DATA  ,61114    29  - 
VG01    pair2(L)    (CL1-A , 0, 30)61114   30..S-VOL PAIR DATA  ,-----    59  - 
VG01    pair2(R)    (CL1-C , 0, 10)20064   59..P-VOL PAIR DATA  ,61114    30  - 
VG01    pair3(L)    (CL1-A , 0, 31)61114   31..S-VOL PAIR DATA  ,-----    60  - 
VG01    pair3(R)    (CL1-C , 0, 11)20064   60..P-VOL PAIR DATA  ,61114    31  -


範例 5–6 節點 3 上的 pairdisplay 指令輸出


# pairdisplay -g VG01 
Group   PairVol(L/R) (Port#,TID,LU),Seq#,LDEV#.P/S,Status,Fence, Seq#,P-LDEV# M 
VG01    pair1(L)    (CL1-C , 0,  9)20064   58..P-VOL PAIR DATA  ,61114    29  - 
VG01    pair1(R)    (CL1-A , 0, 29)61114   29..S-VOL PAIR DATA  ,-----    58  - 
VG01    pair2(L)    (CL1-C , 0, 10)20064   59..P-VOL PAIR DATA  ,61114    30  - 
VG01    pair2(R)    (CL1-A , 0, 30)61114   30..S-VOL PAIR DATA  ,-----    59  - 
VG01    pair3(L)    (CL1-C , 0, 11)20064   60..P-VOL PAIR DATA  ,61114    31  - 
VG01    pair3(R)    (CL1-A , 0, 31)61114   31..S-VOL PAIR DATA  ,-----    60  - 

若要查看使用了哪個磁碟,請依下列範例所示使用 pairdisplay 指令的 -fd 選項。


範例 5–7 節點 1 上的 pairdisplay 指令輸出,顯示已使用的磁碟


# pairdisplay -fd -g VG01 
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M 
VG01 pair1(L) c6t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR DATA  ,-----    58  - 
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR DATA  ,61114    29  - 
VG01 pair2(L) c6t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR DATA  ,-----    59  - 
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 0064  59..P-VOL PAIR DATA  ,61114    30  - 
VG01 pair3(L) c6t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR DATA  ,-----    60  - 
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR DATA  ,61114    31  -


範例 5–8 節點 2 上的 pairdisplay 指令輸出,顯示已使用的磁碟


# pairdisplay -fd -g VG01
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence,Seq#,P-LDEV# M
VG01 pair1(L) c5t500060E8000000000000EEBA0000001Dd0s2 61114 29..S-VOL PAIR DATA  ,-----    58  -
VG01 pair1(R) c5t50060E800000000000004E600000003Ad0s2 20064 58..P-VOL PAIR DATA  ,61114    29  -
VG01 pair2(L) c5t500060E8000000000000EEBA0000001Ed0s2 61114 30..S-VOL PAIR DATA  ,-----    59  -
VG01 pair2(R) c5t50060E800000000000004E600000003Bd0s2 20064 59..P-VOL PAIR DATA  ,61114    30  -
VG01 pair3(L) c5t500060E8000000000000EEBA0000001Fd0s2 61114 31..S-VOL PAIR DATA  ,-----    60  -
VG01 pair3(R) c5t50060E800000000000004E600000003Cd0s2 20064 60..P-VOL PAIR DATA  ,61114    31  -


範例 5–9 節點 3 上的 pairdisplay 指令輸出,顯示已使用的磁碟


# pairdisplay -fd -g VG01
Group PairVol(L/R) Device_File                       ,Seq#,LDEV#.P/S,Status,Fence ,Seq#,P-LDEV# M 
VG01 pair1(L) c5t50060E800000000000004E600000003Ad0s2 20064  58..P-VOL PAIR DATA  ,61114    29  - 
VG01 pair1(R) c6t500060E8000000000000EEBA0000001Dd0s2 61114  29..S-VOL PAIR DATA  ,-----    58  - 
VG01 pair2(L) c5t50060E800000000000004E600000003Bd0s2 20064  59..P-VOL PAIR DATA  ,61114    30  - 
VG01 pair2(R) c6t500060E8000000000000EEBA0000001Ed0s2 61114  30..S-VOL PAIR DATA  ,-----    59  - 
VG01 pair3(L) c5t50060E800000000000004E600000003Cd0s2 20064  60..P-VOL PAIR DATA  ,61114    31  - 
VG01 pair3(R) c6t500060E8000000000000EEBA0000001Fd0s2 61114  31..S-VOL PAIR DATA  ,-----    60  -

這些範例會顯示是否已使用下列磁碟:

若要查看對應至這些磁碟的 DID 裝置,請依下列範例所示使用 cldevice list 指令。


範例 5–10 顯示對應至已使用磁碟的 DID。


# cldevice list -v

DID Device  Full Device Path
----------  ----------------
1           node-1:/dev/rdsk/c0t0d0  /dev/did/rdsk/d1
2           node-1:/dev/rdsk/c0t6d0  /dev/did/rdsk/d2
11          node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
11          node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
12              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12     
12              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
13              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
13              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
14              node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
14              node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d14
18          node-3:/dev/rdsk/c0t0d0  /dev/did/rdsk/d18
19          node-3:/dev/rdsk/c0t6d0  /dev/did/rdsk/d19
20          node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
21          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
22          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d2223  
23              node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
24              node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

當合併各組複製裝置的 DID 實例時,cldevice list 應將 DID 實例 12 與 實例 22 合併;實例 13 與實例 23 合併;實例 14 與 24 合併。 由於節點 3 擁有主要副本,因此會從節點 1 或節點 2 執行 cldevice -T 指令。請固定從擁有次要副本的節點合併實例。僅可從單一節點執行此指令,而不可從雙節點執行。

當藉由在節點 1 上執行指令來合併 DID 實例時,下列範例會顯示輸出。


範例 5–11 合併 DID 實例


# cldevice replicate -D node-3
Remapping instances for devices replicated with node-3...
VG01 pair1 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0
VG01 pair1 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0
Combining instance 14 with 24
VG01 pair2 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0
VG01 pair2 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0
Combining instance 13 with 23
VG01 pair3 L node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0
VG01 pair3 R node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0
Combining instance 12 with 22

檢查 cldevice list 輸出,來自兩個站點的 LUN 現在擁有相同的 DID 實例。如以下範例所示,擁有相同的 DID 實例會使每個複製組看起來像單 DID 裝置。


範例 5–12 顯示合併的 DID


# cldevice list -v
DID Device  Full Device Path
----------  ----------------
1           node-1:/dev/rdsk/c0t0d0  /dev/did/rdsk/d1
2           node-1:/dev/rdsk/c0t6d0  /dev/did/rdsk/d2
11          node-1:/dev/rdsk/c6t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
11          node-2:/dev/rdsk/c5t500060E8000000000000EEBA00000020d0 /dev/did/rdsk/d11
18          node-3:/dev/rdsk/c0t0d0  /dev/did/rdsk/d18
19          node-3:/dev/rdsk/c0t6d0  /dev/did/rdsk/d19
20          node-3:/dev/rdsk/c5t50060E800000000000004E6000000013d0 /dev/did/rdsk/d20
21          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Dd0 /dev/did/rdsk/d21
22          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d1222  
22          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Fd0 /dev/did/rdsk/d12
22          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Cd0 /dev/did/rdsk/d22
23          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
23          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Ed0 /dev/did/rdsk/d13
23          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Bd0 /dev/did/rdsk/d23
24          node-1:/dev/rdsk/c6t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
24          node-2:/dev/rdsk/c5t500060E8000000000000EEBA0000001Dd0 /dev/did/rdsk/d24
24          node-3:/dev/rdsk/c5t50060E800000000000004E600000003Ad0 /dev/did/rdsk/d24

下個步驟可建立磁碟區管理程式裝置群組。在範例節點 3 中,從擁有主要副本的節點發出此指令。如以下範例所示,給予裝置群組與副本群組一個相同的名稱。


範例 5–13 建立 Solaris Volume Manager 裝置群組


# metaset -s VG01 -ah phys-deneb-3
# metaset -s VG01 -ah phys-deneb-1
# metaset -s VG01 -ah phys-deneb-2
# metaset -s VG01 -a /dev/did/rdsk/d22
# metaset -s VG01 -a /dev/did/rdsk/d23
# metaset -s VG01 -a /dev/did/rdsk/d24
# metaset
Set name = VG01, Set number = 1

Host                Owner
  phys-deneb-3       Yes
  phys-deneb-1
  phys-deneb-2

Drive Dbase
d22   Yes
d23   Yes
d24   Yes

此時,裝置群組為可使用、可建立中介裝置且裝置群組可移動至三個節點中的任一個。然而,為了更有效率的進行切換與容錯移轉,請執行 cldevicegroup set 以在叢集配置中將裝置群組標示成已複製。


範例 5–14 有效率的進行切換與容錯移轉


# cldevicegroup sync VG01 
# cldevicegroup show VG01
=== Device Groups===

Device Group Name                       VG01   
  Type:                                   SVM   
  failback:                               no   
  Node List:                              phys-deneb-3, phys-deneb-1, phys-deneb-2   
  preferenced:                            yes   
  numsecondaries:                         1   
  device names:                           VG01   
  Replication type:                       truecopy

複製群組的配置可以此步驟完成。若要驗證配置是否成功,請執行 如何驗證複製的全域裝置群組名稱 中的步驟。

管理叢集檔案系統的簡介

叢集檔案系統管理不需要特別的 Sun Cluster 指令。管理叢集檔案系統的方式和管理其它任何的 Solaris 檔案系統一樣,可以使用標準的 Solaris 檔案系統指令,如 mountnewfs 。指定 -g 選項至 mount 指令可以裝載叢集檔案系統,叢集檔案系統也能在啟動時自動裝載。叢集檔案系統僅可從全域區域看見。如果您需要叢集檔案系統資料可從非全域區域存取,請使用 zoneadm(1M)zoneadm 或 HAStoragePlus 將資料對映至非全域區域。


備註 –

當叢集檔案系統讀取檔案時,檔案系統並不會更新那些檔案的存取時間。


叢集檔案系統限制

以下限制適用於管理叢集檔案系統:

SPARC: 支援 VxFS 的準則

以下 VxFS 功能在 Sun Cluster 3.2 叢集檔案系統中不受支援。但是,在本機檔案系統中支持這些功能。

可使用快取建議,但是只有在指定的節點上才能看出效果

叢集檔案系統中支援的所有其他 VxFS 功能和選項受到 Sun Cluster 3.2 軟體支援。請參閱 VxFS 文件,以取得有關叢集配置中支援的 VxFS 選項的詳細資訊。

下列使用 VxFS 的準則可建立 Sun Cluster 3.2 配置專屬的高度可用叢集檔案系統。

下列管理 VxFS 叢集檔案系統的準則並非特別針對 Sun Cluster 3.2 軟體。不過,這些準則和您管理 UFS 叢集檔案系統的方法不同。

管理裝置群組

當您的叢集需求變更時,您可能需要在您的叢集上增加、移除或修改裝置群組。Sun Cluster 提供稱為 clsetup 的互動介面好讓您可使用它來進行這些變更。clsetup 產生 cluster 指令。產生的指令會在部分程序範例的尾端顯示。下表列出管理裝置群組的作業並提供連接至本節中適當程序的連結。


備註 –

Sun Cluster 軟體會自動為叢集中的每一個磁碟及磁帶裝置建立原始磁碟裝置群組。不過叢集裝置群組仍會保持離線狀態,除非您將群組作為全域裝置來存取。


表 5–3 作業對映:管理裝置群組

作業 

操作說明 

使用 cldevice populate 指令以在沒有重新配置重新啟動的情形下更新全域裝置名稱空間

如何更新全域裝置名稱空間

使用 metaset 指令增加 Solaris Volume Manager 磁碟組並將它們註冊為裝置群組

如何增加與註冊裝置群組 (Solaris Volume Manager)

使用 metasetmetaclear 指令從配置中移除 Solaris Volume Manager 裝置群組

如何移除及取消註冊裝置群組 (Solaris Volume Manager)

使用 cldevicegroupmetasetclsetup 從所有裝置群組中移除節點

如何從所有裝置群組移除節點

使用 metaset 指令從 Solaris Volume Manager 裝置群組中移除節點

如何從裝置群組移除節點 (Solaris Volume Manager)

SPARC:使用 VxVM 指令和 clsetup 將 VERITAS Volume Manager 磁碟群組增加為裝置群組

SPARC: 如何在起始磁碟時建立新的磁碟群組 (VERITAS Volume Manager)

SPARC: 如何在封裝磁碟時建立新的磁碟群組 (VERITAS Volume Manager)

SPARC: 如何增加新的磁碟區至現有的裝置群組 (VERITAS Volume Manager)

SPARC: 如何將現有的磁碟群組轉換為裝置群組 (VERITAS Volume Manager)

SPARC: 如何指定裝置群組的新次要編號 (VERITAS Volume Manager)

SPARC: 如何將磁碟群組註冊為裝置群組 (VERITAS Volume Manager)

如何將本機磁碟群組轉換成裝置群組 (VxVM)

如何將裝置群組轉換為本機磁碟群組 (VxVM)

SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)

SPARC:使用 clsetup (以產生cldevicegroup) 指令從配置中移除 VERITAS Volume Manager 裝置群組

SPARC: 如何從裝置群組移除磁碟區 (VERITAS Volume Manager)

SPARC: 如何移除及取消註冊裝置群組 (VERITAS Volume Manager)

SPARC:使用 clsetup 增加節點至 VERITAS Volume Manager 可產生 cldevicegroup

SPARC: 如何增加節點至裝置群組 (VERITAS Volume Manager)

SPARC:使用 clsetup 從 VERITAS Volume Manager 裝置群組移除節點以產生 cldevicegroup

SPARC: 如何從裝置群組移除節點 (VERITAS Volume Manager)

使用 cldevicegroup 指令從原始磁碟的裝置群組移除節點

如何從原始磁碟裝置群組移除節點

使用 clsetup 變更裝置群組特性以產生 cldevicegroup

如何變更裝置群組特性

使用 cldevicegroup show 指令顯示裝置群組和特性

如何列出裝置群組配置

使用 clsetup 變更想要的輔助磁碟區編號以產生 cldevicegroup

如何設定裝置群組的次要節點數目

使用 cldevicegroup switch 指令切換裝置群組的主要節點

如何切換裝置群組的主要節點

使用 metasetvxdg 指令使裝置群組進入維護狀態

如何使裝置群組進入維護狀態

Procedure如何更新全域裝置名稱空間

增加新的全域裝置時,執行 cldevice populate 指令以手動更新全域裝置名稱空間。


備註 –

如果執行指令的節點目前不是叢集成員,那麼 cldevice populate 指令便不會有任何效果。如果未裝載 /global/.devices/node@ nodeID 檔案系統,則指令同樣不會有效果。


此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 在叢集的任一節點上成為超級使用者或成為提供 solaris.cluster.modify RBAC 授權的角色。

  2. 重新配置名稱空間


    # cldevice populate
    

範例 5–15 更新全域裝置名稱空間

以下範例顯示藉由成功執行 cldevice populate 指令所產生的輸出。


# cldevice populate 
Configuring the /dev/global directory (global devices)...
obtaining access to all attached disks
reservation program successfully exiting

Procedure如何增加與註冊裝置群組 (Solaris Volume Manager)

使用 metaset 指令建立 Solaris Volume Manager 磁碟組並將其註冊為 Sun Cluster 裝置群組。註冊磁碟組時,您指定給磁碟組的名稱會自動指定給裝置群組。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 在連接至您建立磁碟組的磁碟的其中之一個節點上,成為超級使用者,或成為提供 solaris.cluster.modify RBAC 授權的角色。

  2. SPARC: 僅 Solaris 9:計算配置所需的 Solstice DiskSuite 中介裝置或 Solaris Volume Manager 磁碟區的名稱數,並在每個節點上修改 /kernel/drv/md.conf 檔案。如果您正在 Solaris 10 上執行,則不須此步驟。

    請參閱「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」中的「如何設定中介裝置或磁碟區名稱和磁碟組的數目」。

  3. 使用 metaset(1M) 指令增加 Solaris Volume Manager 磁碟組,並將其註冊為具備 Sun Cluster 的裝置群組。若要建立多所有者磁碟群組,請使用 –M 選項。


    # metaset -s diskset -a -M -h nodelist
    
    -s diskset

    指定要建立的磁碟組。

    -a -h nodelist

    增加可控制磁碟組的節點清單。

    -M

    指定磁碟群組為多擁有者。


    備註 –

    在叢集上執行 metaset 指令來建立「Solstice DiskSuite/Solaris Volume Manager」裝置群組,根據預設將會產生一個次要節點,不論該裝置群組中所含的節點數目為何。建立裝置群組後,您可使用 clsetup 公用程式來變更想要的次要節點編號。請參閱如何設定裝置群組的次要節點數目,以取得更多有關磁碟容錯移轉的資訊。


  4. 如果您正在配置一個已複製的裝置群組,請設定裝置群組的複製特性。


    # cldevicegroup sync devicegroup
    
  5. 確認裝置群組是否增加成功。

    裝置群組名稱會與使用 metaset 指定的磁碟組名稱相符。


    # cldevicegroup list 
    
  6. 列出 DID 對應。


    # cldevice show | grep Device
    
    • 選擇將主控或可能主控磁碟組的叢集節點共用的磁碟機。

    • 當您增加磁碟機至磁碟組時,請使用完整的DID 裝置名稱,其形式為 /dev/did/rdsk/dN

    在下列範例中,DID 裝置 /dev/did/rdsk/d3 的項目指出磁碟機被 phys-schost-1phys-schost-2 所共用。


    === DID Device Instances ===                   
    DID Device Name:                                /dev/did/rdsk/d1
      Full Device Path:                               phys-schost-1:/dev/rdsk/c0t0d0
    DID Device Name:                                /dev/did/rdsk/d2
      Full Device Path:                               phys-schost-1:/dev/rdsk/c0t6d0
    DID Device Name:                                /dev/did/rdsk/d3
      Full Device Path:                               phys-schost-1:/dev/rdsk/c1t1d0
      Full Device Path:                               phys-schost-2:/dev/rdsk/c1t1d0
    …
  7. 將磁碟機增加至磁碟組。

    使用完整的 DID 路徑名稱。


    # metaset -s setname -a /dev/did/rdsk/dN
    
    -s setname

    指定磁碟組名稱,其與裝置群組名稱相同。

    -a

    將磁碟機增加至磁碟組。


    備註 –

    將磁碟機增加至磁碟組時,請使用低階裝置名稱 (cNtXdY)。因為低階裝置名稱是本機名稱,在叢集中並非唯一,使用此名稱會使 metaset 無法切換。


  8. 驗證磁碟組與磁碟機的狀態。


    # metaset -s setname
    

範例 5–16 增加 Solaris Volume Manager 裝置群組

下列範例顯示建立磁碟機 /dev/did/rdsk/d1/dev/did/rdsk/d2 的磁碟組和裝置群組,並驗證是否已建立裝置群組。


# metaset -s dg-schost-1 -a -h phys-schost-1

# cldevicegroup list
dg-schost-1 
metaset -s dg-schost-1 -a /dev/did/rdsk/d1 /dev/did/rdsk/d2

如何移除及取消註冊裝置群組 (Solaris Volume Manager)

裝置群組是已在 Sun Cluster 註冊的 Solaris Volume Manager 磁碟組。若要移除 Solaris Volume Manager 裝置群組,請使用 metaclearmetaset 指令。這些指令會移除相同名稱的裝置群組,並取消註冊其 Sun Cluster 裝置群組的身份。

請參閱 Solaris Volume Manager說明文件,以取得移除磁碟組的步驟。

Procedure如何從所有裝置群組移除節點

使用此程序移除所有裝置群組 (該群組列出了潛在主要節點清單中的節點) 中的叢集節點。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 在您移除作為所有裝置群組的潛在主要節點之節點上,成為超級使用者,或成為提供 solaris.cluster.modify RBAC 授權的角色。

  2. 判定其要移除之節點是否是其成員的裝置群組。

    在每一個裝置群組的 Device group node list 中尋找節點名稱。


    # cldevicegroup list -v
    
  3. 如果任何一個在 步驟 2 中辨識的群組類型為裝置群組類型 SVM,請為該類型的裝置群組執行 如何從裝置群組移除節點 (Solaris Volume Manager) 中的步驟。

  4. 如果任何一個在步驟 2 中辨識的群組類型為裝置群組類型 VXVM,請為該類型的裝置群組執行 SPARC: 如何從裝置群組移除節點 (VERITAS Volume Manager) 中的步驟。

  5. 判定要移除其成員節點的原始裝置磁碟群組是否為成員。


    # cldevicegroup list -v
    
  6. 如果任何列於步驟 5 的裝置群組為裝置群組類型 DiskLocal_Disk,請為這些裝置群組執行 如何從原始磁碟裝置群組移除節點 中的步驟。

  7. 驗證節點是否已從所有裝置群組的潛在主要節點中移除。

    如果該節點不再列為任何裝置群組的潛在主要節點,則此項指令不會傳回任何訊息。


    # cldevicegroup list -v  nodename
    

Procedure如何從裝置群組移除節點 (Solaris Volume Manager)

使用此程序從 Solaris Volume Manager 裝置群組的潛在主要節點清單中,移除一個叢集節點。請為每一個您想要移除節點的裝置群組,重複執行 metaset 指令。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 驗證該節點是否仍是裝置群組的成員,以及該裝置群組是否為 Solaris Volume Manager 裝置群組。

    SDS/SVM 裝置群組類型表示一個 Solaris Volume Manager 裝置群組。


    phys-schost-1% cldevicegroup show devicegroup
    
  2. 判斷哪一個節點是裝置群組目前的主要節點。


    # cluster status -t devicegroup
    
  3. 在目前擁有您要修改之裝置群組的節點上成為超級使用者。

  4. 從裝置群組移除節點的主機名稱。


    # metaset -s setname -d -h nodelist
    
    -s setname

    指定裝置群組名稱。

    -d

    從裝置群組刪除由 -h 標示的節點。

    -h nodelist

    指定將被移除的節點名稱或節點。


    備註 –

    更新可能需要數分鐘才能夠完成。


    如果指令失敗,則將 -f (強制) 選項加入指令中。


    # metaset -s setname -d -f -h nodelist
    
  5. 對要從其中將節點作為潛在主要節點移除的每個裝置群組重複執行步驟 4

  6. 驗證節點是否已從裝置群組中移除。

    裝置群組名稱會與使用 metaset 指定的磁碟組名稱相符。


    phys-schost-1% cldevicegroup list -v devicegroup
    

範例 5–17 從裝置群組 (Solaris Volume Manager) 移除節點

下列範例顯示如何從裝置群組配置移除主機名稱 phys-schost-2 。這個範例刪除成為指定裝置群組中潛在主要節點的 phys-schost-2 。執行 cldevicegroup show 指令。檢查移除的節點不再顯示於螢幕文字中。


[判定節點的 Solaris Volume Manager
 裝置群組:]
# cldevicegroup show dg-schost-1
=== Device Groups ===                          

Device Group Name:                    dg-schost-1
  Type:                                 SVM
  failback:                             no
  Node List:                            phys-schost-1, phys-schost-2
  preferenced:                          yes
  numsecondaries:                       1
  diskset name:                         dg-schost-1
[判定哪個節點為裝置群組目前的主要節點:]
# cldevicegroup status dg-schost-1
=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name    Primary         Secondary      Status
-----------------    -------         ---------      ------
dg-schost-1          phys-schost-1   phys-schost-2  Online
[成為目前擁有該裝置群組的節點之超級使用者.]
[從裝置群組移除主機名稱:]
# metaset -s dg-schost-1 -d -h phys-schost-2
[驗證節點是否移除:]
phys-schost-1% cldevicegroup list -v dg-schost-1
=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name    Primary         Secondary      Status
-----------------    -------         ---------      ------
dg-schost-1          phys-schost-1   -              Online

Procedure如何在叢集中建立三個以上的磁碟組

如果您正在執行 Solaris 9 且想在叢集中建立三個以上的磁碟組,請在建立磁碟組之前執行下列步驟。如果您正在執行 Solaris 10,您則不需要執行此程序如果您是第一次安裝磁碟組或您正在增加更多磁碟組到完整配置的叢集,請遵循這些步驟。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 確認 md_nsets 變數的值夠高。這個值應大於您想要在叢集中建立的磁碟組總數。

    1. 在叢集的任何節點上,檢查 md_nsets 變數值,該變數值位於 /kernel/drv/md.conf 檔中。

    2. 如果叢集中的磁碟組總數大於現有的 md_nsets 負值,請增加每個節點的 md_nsets 值。

      可允許的最大磁碟組數目是 md_nsets 的值減一。md_nsets 的最大值為 32。

    3. 確定 /kernel/drv/md.conf 檔在叢集的每個節點上都相同。


      注意 – 注意 –

      未遵循此準則會導致嚴重的 Solaris Volume Manager錯誤和可能的資料遺失。


    4. 在某一個節點上關閉叢集。


      # cluster shutdown -g0 -y
      
    5. 重新啟動叢集中的每個節點。

      • 在基於 SPARC 的系統上,執行下列動作︰


        ok boot
        
      • 在基於 x86 的系統上,執行下列動作︰

        當螢幕顯示 GRUB 功能表時,請選取合適的 Solaris 項目然後按下 Enter。GRUB 功能表會以類似以下的方式顯示:


        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                                  |
        | Solaris failsafe                                                        |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.
  2. 在叢集中的每個節點上,執行 devfsadm(1M) 指令。

    您可以在叢集的所有節點上同時執行此指令。

  3. 從叢集的某個節點執行 cldevice populate (1M) 指令。

  4. 在每個節點上,確認在您嘗試建立任何磁碟組之前,cldevice populate 指令已完成。

    cldevice 指令在所有節點上自行遠端呼叫,即使只從一個節點執行指令也是如此。若要判定 cldevice populate 指令是否已經完成作業,請在叢集的每個節點上執行下列指令。


    # ps -ef | grep scgdevs
    

ProcedureSPARC: 如何在起始磁碟時建立新的磁碟群組 (VERITAS Volume Manager)


備註 –

這個程序只適用於起始磁碟。如果您要封裝磁碟,請使用SPARC: 如何在封裝磁碟時建立新的磁碟群組 (VERITAS Volume Manager)中的程序。


增加 VxVM 磁碟群組之後,您必須註冊裝置群組。

如果您使用 VxVM 來設定 Oracle Parallel Server 或 Oracle RAC 的共用磁碟群組,請使用「VERITAS 容體管理程式管理指南」中所述的 VxVM 叢集功能。

  1. 實體連結至磁碟的任何節點上成為超級使用者,這些磁碟組成要增加的磁碟群組。

  2. 建立 VxVM 磁碟群組與磁碟區。

    使用您喜好的方法來建立磁碟群組與磁碟區。


    備註 –

    如果您正在設定鏡像磁碟區,可在發生節點故障時使用「已使用區域記錄」(DRL) 來減少磁碟區回復時間。但是,DRL 可能會降低 I/O 產量。


    請參閱 VERITAS Volume Manager說明文件,以取得完成此步驟的程序。

  3. 將 VxVM 磁碟群組註冊為 Sun Cluster 裝置群組。

    請參閱SPARC: 如何將磁碟群組註冊為裝置群組 (VERITAS Volume Manager)

    請不要使用叢集框架來註冊 Oracle Parallel Server 或 Oracle RAC 共用磁碟群組。

ProcedureSPARC: 如何在封裝磁碟時建立新的磁碟群組 (VERITAS Volume Manager)


備註 –

此程序僅適用於封裝磁碟。如果您要初始化磁碟,請使用SPARC: 如何在起始磁碟時建立新的磁碟群組 (VERITAS Volume Manager)中的程序。


您可以將非根磁碟轉換為 Sun Cluster 裝置群組,方法是先將磁碟封裝為 VxVM 磁碟群組,然後將磁碟群組註冊為 Sun Cluster 裝置群組。

只有在起始建立 VxVM 磁碟群組時才支援磁碟封裝。在建立 VxVM 磁碟群組並將其註冊為 Sun Cluster 裝置群組之後,便只有可初始化的磁碟才應加入磁碟群組中。

如果您使用 VxVM 來設定 Oracle Parallel Server 或 Oracle RAC 的共用磁碟群組,請使用「VERITAS 容體管理程式管理指南」中所述的 VxVM 叢集功能。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 在叢集的任一節點上成為超級使用者或成為提供 solaris.cluster.modify RBAC 授權的角色。

  2. 如果密封的磁碟在 /etc/vfstab 檔中有系統檔案項目,請確定 mount at boot 選項被設為 no

    磁碟已封裝並註冊為 Sun Cluster 裝置群組後,就請設回 yes

  3. 封裝磁碟。

    使用 vxdiskadm 功能表或圖形化使用者介面來封裝磁碟。VxVM 需要在磁碟開頭或結尾處有二個可用分割區以及未指定的磁柱。片段 2 也必須設定成整個磁碟。請參閱 vxdiskadm(1M) 線上說明手冊,以取得詳細資訊。

  4. 先關閉再重新啟動節點。

    clnode evacuate command 可切換所有資源群組和裝置群組,其包含來自指定節點到下個選取節點的非全域區域。使用 shutdown 指令來關閉及重新啟動節點。


    # clnode evacuate  node[,...]
    # shutdown -g0 -y -i6
    
  5. 如有需要,將所有資源群組以及裝置群組切換回原來的節點。

    如果資源群組和裝置群組一開始便配置成故障返回主要節點,便不需要此步驟。


    # cldevicegroup switch -n node devicegroup 
    # clresourcegroup switch -z zone -n node resourcegroup 
    
    節點

    節點名稱。

    區域

    可以控制資源群組的節點上的非全域區域名稱。唯有在您建立資源群組時已指定非全域區域時,才指定區域

  6. 將 VxVM 磁碟群組註冊為 Sun Cluster 裝置群組。

    請參閱SPARC: 如何將磁碟群組註冊為裝置群組 (VERITAS Volume Manager)

    請不要使用叢集框架來註冊 Oracle Parallel Server 或 Oracle RAC 共用磁碟群組。

  7. 如果您在步驟 2 中將 mount at boot 選項設定為 no,請將其設回 yes

ProcedureSPARC: 如何增加新的磁碟區至現有的裝置群組 (VERITAS Volume Manager)

當您增加新的磁碟區至現有的 VxVM 裝置群組時,請從線上裝置群組的主要節點執行此程序。


備註 –

增加磁碟區後,您需要使用SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)中的程序來註冊配置變更。


此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 在任一叢集節點上,成為超級使用者,或成為提供 solaris.cluster.readsolaris.cluster.administer RBAC 授權的角色。

  2. 決定您要增加新磁碟區之裝置群組的主要節點。


    # cldevicegroup status
    
  3. 如果裝置群組為離線狀態,請讓裝置群組上線。


    # cldevicegroup switch -n nodename devicegroup
    
    節點名稱

    指定節點名稱至切換裝置群組處。此節點會成為新的主要節點。

    devicegroup

    指定要切換的裝置群組。

  4. 從主要節點 (目前主控裝置群組的節點) 建立磁碟群組中的 VxVM 磁碟區。

    請參閱 VERITAS Volume Manager說明文件,以取得建立 VxVM 磁碟區的程序。

  5. 同步化 VxVM 磁碟群組變更,以更新全域名稱空間。

    DPM

    SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)

ProcedureSPARC: 如何將現有的磁碟群組轉換為裝置群組 (VERITAS Volume Manager)

藉由匯入磁碟群組到現行的節點上將現有的 VxVM 磁碟群組轉換為 Sun Cluster 裝置群組,接著將磁碟群組註冊為 Sun Cluster 裝置群組。

  1. 成為叢集上任何節點的超級使用者。

  2. 匯入 VxVM 磁碟群組至現行的節點。


    # vxdg import diskgroup
    
  3. 將 VxVM 磁碟群組註冊為 Sun Cluster 裝置群組。

    請參閱SPARC: 如何將磁碟群組註冊為裝置群組 (VERITAS Volume Manager)

ProcedureSPARC: 如何指定裝置群組的新次要編號 (VERITAS Volume Manager)

如果由於某個次要編號與其他磁碟群組衝突而導致裝置群組註冊失敗,則您必須為新的磁碟群組指定一個新的、未使用的次要編號。指定好新的次要編號後,請重新執行程序將磁碟群組註冊為 Sun Cluster 裝置群組。

  1. 成為叢集上任何節點的超級使用者。

  2. 決定使用中的次要編號。


    # ls -l /global/.devices/node@nodeid/dev/vx/dsk/*
    
  3. 選擇另一個未使用的 1000 倍數當作新磁碟群組的基本次要編號。

  4. 指定新的次要編號給磁碟群組。


    # vxdg reminor diskgroup base-minor-number
    
  5. 將 VxVM 磁碟群組註冊為 Sun Cluster 裝置群組。

    請參閱SPARC: 如何將磁碟群組註冊為裝置群組 (VERITAS Volume Manager)


範例 5–18 SPARC: 如何指定裝置群組的新次要編號

本範例使用 16000-16002 與 4000-4001 次級號碼。vxdg reminor 指令用來將基本次級號碼 5000 指定給新的裝置群組。


# ls -l /global/.devices/node@nodeid/dev/vx/dsk/*
/global/.devices/node@nodeid/dev/vx/dsk/dg1
brw-------   1 root     root      56,16000 Oct  7 11:32 dg1v1
brw-------   1 root     root      56,16001 Oct  7 11:32 dg1v2
brw-------   1 root     root      56,16002 Oct  7 11:32 dg1v3
 
/global/.devices/node@nodeid/dev/vx/dsk/dg2
brw-------   1 root     root      56,4000 Oct  7 11:32 dg2v1
brw-------   1 root     root      56,4001 Oct  7 11:32 dg2v2
# vxdg reminor dg3 5000

ProcedureSPARC: 如何將磁碟群組註冊為裝置群組 (VERITAS Volume Manager)

本程序使用 clsetup 公用程式註冊相關的 VxVM 磁碟群組為 Sun Cluster 裝置群組。


備註 –

裝置群組在叢集註冊之後,請勿使用 VxVM 指令匯入或匯出 VxVM 磁碟群組。如果您變更了 VxVM 磁碟群組或磁碟區,請遵循SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)中的程序註冊裝置群組配置變更。這個程序可以確保全域名稱空間處於正確的狀態。


此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

開始之前

請確認在註冊 VxVM 裝置群組以前已完成下列先決條件:

當您定義偏好順序時,如果該節點失敗且於稍後返回叢集,您也可指定裝置群組是否要切換回最偏好的節點。

請參閱 cldevicegroup(1CL) 以取得更多關於節點偏好和容錯回復選項的資訊。

非主要叢集節點 (備用) 會根據節點偏好順序轉換為次要節點。裝置群組預設的次要節點數目通常設定為一。這個預設設定可將正常操作時,因多個次要節點的主要檢查點所導致的效能降級降到最低。例如,在擁有四個節點的叢集中,預設上會配置一個主要、一個次要及兩個備用節點。請同時參閱如何設定裝置群組的次要節點數目

  1. 在叢集的任一節點上成為超級使用者或成為提供 solaris.cluster.modify RBAC 授權的角色。

  2. 啟動 clsetup 公用程式。


    # clsetup
    

    顯示 Main Menu。

  3. 若要與 VxVM 裝置群組一起執行,請鍵入對應於裝置群組和磁碟區選項的號碼。

    會出現 Device Groups Menu。

  4. 若要註冊 VxVM 裝置群組,請鍵入對應該選項的數目以註冊 VxVM 磁碟群組為裝置群組。

    依指示進行,同時輸入要註冊為 Sun Cluster 裝置群組的 VxVM 磁碟群組名稱。

    如果此裝置群組是藉由使用以控制器為基礎的應用程式複製,此名稱必須與 TrueCopy 複製群組的名稱相同。

    如果您使用 VxVM 設定 Oracle Parallel Server/Oracle RAC 的共用磁碟群組,請不要使用叢集架構註冊共用磁碟群組。請使用「VERITAS Volume Manager 管理指南」中所述的 VxVM 叢集功能。

  5. 如果您在試圖註冊裝置群組時發生下列錯誤,請重新指定裝置群組的次要編號。


    scconf: Failed to add device group - in use

    若要重新指定裝置群組的次要編號,請使用SPARC: 如何指定裝置群組的新次要編號 (VERITAS Volume Manager)中的程序。此程序可讓您指定新的次要編號,以免與現有裝置群組所使用的次要編號相衝突。

  6. 如果您正在配置一個已複製的裝置群組,請設定裝置群組的複製特性。


    # cldevicegroup sync devicegroup
    
  7. 驗證裝置群組是否已註冊且為連線狀態。

    如果裝置群組已正確註冊,在使用以下指令時,將顯示新裝置群組的資訊。


    # cldevicegroup status devicegroup
    

    備註 –

    如果您變更了任何在叢集註冊完成的 VxVM 磁碟群組或磁碟區的配置資訊,必須使用 clsetup 來同步化裝置群組。此處所指的配置資訊變更包括新增或移除磁碟區,以及變更現有磁碟區的群組、擁有者或權限。配置變更後重新註冊可以確保全域名稱空間處於正確的狀態。請參閱如何更新全域裝置名稱空間



範例 5–19 SPARC: 註冊 VERITAS Volume Manager 裝置群組

以下範例為 clsetup 註冊 VxVM 裝置群組 dg1 時所產生的 cldevicegroup 指令及驗證步驟。此範例假設 VxVM 磁碟群組及磁碟區在先前便已建立。


# clsetup

# cldevicegroup create -t vxvm -n phys-schost-1,phys-schost-2 -p failback=true dg1


# cldevicegroup status dg1

=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name    Primary        Secondary      Status
-----------------    -------        ---------      ------
dg1                  phys-schost-1  phys-schost-2  Online

另請參閱

若要在 VxVM 裝置群組上建立叢集檔案系統,請參閱如何新增叢集檔案系統

如果次要編號發生問題,請參閱SPARC: 如何指定裝置群組的新次要編號 (VERITAS Volume Manager)

ProcedureSPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)

當您變更 VxVM 磁碟群組或磁碟區的任何配置資訊時,您需要註冊 Sun Cluster 裝置群組的配置變更。註冊可以確保全域名稱空間處於正確的狀態。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 在叢集的任一節點上成為超級使用者或成為提供 solaris.cluster.modify RBAC 授權的角色。

  2. 啟動 clsetup 公用程式。


    # clsetup
    

    顯示 Main Menu。

  3. 若要與 VxVM 裝置群組一起執行,請鍵入對應於裝置群組和磁碟區選項的號碼。

    會出現 Device Groups Menu。

  4. 若要註冊配置變更,請鍵入符合選項的數目以同步化 VxVM 裝置群組的磁碟區資訊。

    請遵循指示並鍵入已經變更配置的 VxVM 磁碟群組名稱。


範例 5–20 SPARC: 註冊 VERITAS Volume Manager 磁碟群組配置變更

下列範例顯示clsetup 所產生的 cldevicegroup 指令,且顯示變更的 VxVM (dg1) 裝置群組已註冊。此範例假設 VxVM 磁碟群組及磁碟區在先前便已建立。


# clsetup
 
cldevicegroup sync dg1

Procedure如何將本機磁碟群組轉換成裝置群組 (VxVM)

執行此程序以將 VxVM 磁碟群組變更為可全域存取的 VxVM 裝置群組。

  1. 成為叢集上某個節點的超級使用者。

  2. 啟動 clsetup 公用程式。


    # clsetup
    
  3. 取消設定 localonly 特性。

    1. 選擇功能表項目 [Device groups and volumes]。

    2. 選擇功能表項目,將本機的 VxVM 磁碟群組重設為 VxVM 裝置群組。

    3. 請遵循指示解除設定 localonly 特性。

  4. 指定可管理磁碟群組的節點。

    1. 返回 clsetup 公用程式中的主要功能表。

    2. 選擇功能表項目 [Device groups and volumes]。

    3. 選擇功能表項目 [Register a diskgroup]。

    4. 請遵循指示指定可管理磁碟群組的節點。

    5. 完成後,退出 clsetup 公用程式。

  5. 驗證是否已配置該裝置群組。


    phys-schost# cldevicegroup show
    

Procedure如何將裝置群組轉換為本機磁碟群組 (VxVM)

執行此程序以將 VxVM 裝置群組變更為不是由 Sun Cluster 軟體所管理的 VxVM 裝置群組。本機磁碟群組可在其節點清單中擁有一個以上的節點,但一次僅可被一個節點管理。

  1. 成為叢集上某個節點的超級使用者。

  2. 使裝置群組離線。


    phys-schost# cldevicegroup offline devicegroup
    
  3. 取消註冊裝置群組

    1. 啟動 clsetup 公用程式。


      phys-schost# clsetup
      
    2. 選擇功能表項目 [Device groups and volumes]。

    3. 選擇功能表項目 [Unregister a VxVM disk group]。

    4. 請遵循指示來指定您正從 Sun Cluster 軟體解除安裝的 VxVM 的磁碟群組。

    5. 結束 clsetup 公用程式。

  4. 驗證磁碟群組是否不再註冊於 Sun Cluster 軟體。


    phys-schost# cldevicegroup status
    

    指令輸出應不會再顯示您取消註冊的裝置群組。

  5. 匯入磁碟群組。


    phys-schost# vxdg import diskgroup
    
  6. 設定磁碟群組的 localonly 特性。

    1. 啟動 clsetup 公用程式。


      phys-schost# clsetup
      
    2. 選擇功能表項目 [Device groups and volumes]。

    3. 選擇功能表項目, 將 VxVM 磁碟群組設定為本機磁碟群組。

    4. 請遵循指示設定 localonly 特性並指定專門管理磁碟群組的單一節點。

    5. 完成後,退出 clsetup 公用程式。

  7. 驗證磁碟群組是否成功配置為本機磁碟群組。


    phys-schost# vxdg list diskgroup
    

ProcedureSPARC: 如何從裝置群組移除磁碟區 (VERITAS Volume Manager)


備註 –

從裝置群組中移除磁碟區後,您必須使用SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)中的程序將配置變更註冊至裝置群組。


此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 成為超級使用者或成為在任一叢集節點上提供 solaris.cluster.readsolaris.cluster.modify RBAC 授權的角色。

  2. 決定裝置群組的主要節點及狀態。


    # cldevicegroup status devicegroup
    
  3. 如果裝置群組處於離線狀態,請先恢復其連線。


    # cldevicegroup online devicegroup
    
  4. 從主要節點 (目前主控裝置群組的節點) 移除磁碟群組中的 VxVM 磁碟區。


    # vxedit -g diskgroup -rf rm volume
    
    -g diskgroup

    指定包含磁碟區的 VxVM 磁碟群組。

    -rf rm volume

    移除指定的磁碟區。-r 選項可以使作業重複執行。需要使用 -f 選項移除已啟用的磁碟區。

  5. 使用 clsetup 公用程式,註冊裝置群組配置變更來更新全域名稱空間。

    請參閱SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)

ProcedureSPARC: 如何移除及取消註冊裝置群組 (VERITAS Volume Manager)

移除 Sun Cluster 裝置群組會導致對應的 VxVM 磁碟群組被匯出而非銷毀。不過,即使 VxVM 磁碟群組依然存在,除非重新註冊,否則不能用於叢集。

此程序使用 clsetup(1M) 公用程式來移除 VxVM 磁碟群組以及取消註冊其為 Sun Cluster 裝置群組的身分。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 在叢集的任一節點上成為超級使用者或成為提供 solaris.cluster.modify RBAC 授權的角色。

  2. 使裝置群組離線。


    # cldevicegroup offline devicegroup
    
  3. 啟動 clsetup 公用程式。


    # clsetup
    

    顯示 Main Menu。

  4. 若要與 VxVM 裝置群組一起執行,請鍵入對應於裝置群組和磁碟區選項的號碼。

    會出現 Device Groups Menu。

  5. 若要取消註冊 VxVM 磁碟群組,請鍵入與選項相符的號碼以取消註冊 VxVM 裝置群組。

    請遵循指示並輸入要取消註冊的 VxVM 磁碟群組名稱。


範例 5–21 SPARC: 移除並取消註冊 VERITAS Volume Manager裝置群組

以下範例顯示離線的 VxVM 裝置群組 dg1,以及 cldevicegroup 在移除並取消註冊裝置群組時所產生的 clsetup 指令。


# cldevicegroup offline dg1
# clsetup

   cldevicegroup delete dg1

ProcedureSPARC: 如何增加節點至裝置群組 (VERITAS Volume Manager)

此程序使用 clsetup 公用程式增加節點至裝置群組。

增加節點至 VxVM 裝置群組的必備條件如下:

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 成為超級使用者或成為在任一叢集節點上提供 solaris.cluster.readsolaris.cluster.modify RBAC 授權的角色。

  2. 啟動 clsetup 公用程式。


    # clsetup
    

    顯示 Main Menu。

  3. 若要與 VxVM 裝置群組一起執行,請鍵入對應於裝置群組和磁碟區選項的號碼。

    會出現 Device Groups Menu。

  4. 若要增加節點至 VxVM 裝置群組,請鍵入對應該選項的數目以增加節點到VxVM 裝置群組。

    請依指示進行,並鍵入裝置群組與節點名稱。

  5. 確認節點是否已新增。

    請查詢下列指令顯示之新磁碟的裝置群組資訊。


    # cldevicegroup show devicegroup 
    

範例 5–22 SPARC: 增加節點至 VERITAS Volume Manager 裝置群組

以下範例顯示了 clsetup 增加節點 (phys-schost-3) 至 VxVM 裝置群組 (dg1) 時產生的 scconf 指令和驗證步驟。


# clsetup
 
cldevicegroup add-node -n phys-schost-3 dg1
  
# cldevicegroup show dg1

=== Device Groups === 

Device Group Name:                        dg1
  Type:                                     VxVM
  failback:                                 yes
  Node List:                                phys-schost-1, phys-schost-3
  preferenced:                              no
  numsecondaries:                           1
  diskgroup names:                             dg1

ProcedureSPARC: 如何從裝置群組移除節點 (VERITAS Volume Manager)

使用此程序從 VERITAS Volume Manager (VxVM) 磁碟裝置群組 (磁碟群組) 之潛在主要節點清單移除叢集節點。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 確認節點仍然是群組的成員,且群組為 VxVM 裝置群組。

    VxVM 裝置群組類型表示一個 VxVM 裝置群組。


    phys-schost-1% cldevicegroup show devicegroup
    
  2. 在目前的叢集成員節點上,成為超級使用者,或成為提供 solaris.cluster.readsolaris.cluster.modify RBAC 授權的角色。

  3. 啟動 clsetup 公用程式。


    # clsetup
    

    顯示 Main Menu。

  4. 若要重新配置裝置群組,請鍵入裝置群組和磁碟區的對應數目。

  5. 若要從 VxVM 裝置群組移除節點,請鍵入與選項對應的數目以從 VxVM 裝置群組移除節點。

    依提示從裝置群組移除叢集節點。系統將詢問您以下項目的相關資訊:

    • VxVM 裝置群組

    • 節點名稱

  6. 驗證是否已從 VxVM 裝置群組中移除節點。


    # cldevicegroup show devicegroup
    

範例 5–23 SPARC: 從裝置群組 (VxVM) 中移除節點

此範例顯示從 dg1 VxVM 裝置群組移除名為 phys-schost-1 的節點。


[判定節點的 VxVM 裝置群組:]
# cldevicegroup show dg1

=== Device Groups === 

Device Group Name:                        dg1
  Type:                                     VXVM
  failback:                                 no
  Node List:                                phys-schost-1, phys-schost-2
  preferenced:                              no
  numsecondaries:                           1
  diskgroup names:                             dg1
[成為超級使用者並啟動  clsetup 公用程式:]
# clsetup
 選取裝置群組和磁碟區 > 從 VxVM 裝置群組移除節點。

回答提示符號的問題。 
You will need the following information.
  名稱:            範例:
  VxVM device group name    dg1
  node names                phys-schost-1

[驗證 cldevicegroup 指令已正確執行:]
 cldevicegroup remove-node -n phys-schost-1 dg1
 
    Command completed successfully.
離開  clsetup  裝置群組功能表和主功能表。
[驗證節點已移除:]
# cldevicegroup show dg1

=== Device Groups === 

Device Group Name:                        dg1
  Type:                                     VXVM
  failback:                                 no
  Node List:                                phys-schost-2
  preferenced:                              no
  numsecondaries:                           1
  device names:                             dg1

Procedure如何從原始磁碟裝置群組移除節點

使用此程序從原始磁碟裝置群組的潛在主要節點清單中,移除一個叢集節點。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 在叢集節點 (不是要移除的節點) 上,成為超級使用者,或成為提供 solaris.cluster.readsolaris.cluster.modify RBAC 授權的角色。

  2. 辨識連接至已移除節點的裝置群組,並判定哪個是原始磁碟裝置群組。


    # cldevicegroup show -n nodename -t rawdisk +
    
  3. 停用每一個 Local_Disk 原始磁碟裝置群組的 localonly 特性。


    # cldevicegroup set -p localonly=false devicegroup
    

    請參閱 cldevicegroup(1CL) 線上手冊以取得關於 localonly 特性的更多資訊。

  4. 驗證您是否已停用所有連結到已移除節點的原始磁碟裝置群組的 localonly 屬性。

    Disk 裝置群組種類表示關閉原始磁碟裝置群組的 localonly 特性。


    # cldevicegroup show -n nodename -t rawdisk -v + 
    
  5. 步驟 2 中所辨識的原始磁碟裝置移除節點。

    您必須針對連結至已移除節點的每一個原始磁碟裝置群組完成這個步驟。


    # cldevicegroup remove-node -n nodename devicegroup
    

範例 5–24 SPARC: 從原始裝置群組中移除節點

這個範例顯示如何從原始磁碟裝置群組移除節點 (phys-schost-2)。所有指令是從叢集的另一個節點執行 (phys-schost-1)。


[識別連接到已移除節點的裝置群組,並判定哪些為原始磁碟裝置群組:]
phys-schost-1# cldevicegroup show -n phys-schost-2 -t rawdisk -v +	
Device Group Name:                              dsk/d4
  Type:                                           Disk
  failback:                                       false
  Node List:                                      phys-schost-2
  preferenced:                                    false
  localonly:                                      false
  autogen                                         true
  numsecondaries:                                 1
  device names:                                   phys-schost-2

Device Group Name:                              dsk/d2
  Type:                                           VxVM
  failback:                                       true
  Node List:                                      pbrave2
  preferenced:                                    false
  localonly:                                      false
  autogen                                         true
  numsecondaries:                                 1
  diskgroup name:                                 vxdg1

Device Group Name:                              dsk/d1
  Type:                                           SVM
  failback:                                       false
  Node List:                                      pbrave1, pbrave2
  preferenced:                                    true
  localonly:                                      false
  autogen                                         true
  numsecondaries:                                 1
  diskset name:                                   ms1
(dsk/d4) Device group node list:  phys-schost-2
	(dsk/d2) Device group node list:  phys-schost-1, phys-schost-2
	(dsk/d1) Device group node list:  phys-schost-1, phys-schost-2
[停用節點上每個本機磁碟的僅限本機使用的旗標:]
phys-schost-1# cldevicegroup set -p localonly=false dsk/d4
[驗證僅限本機使用的旗標已停用:]
phys-schost-1# cldevicegroup show -n phys-schost-2 -t rawdisk +   
 (dsk/d4) Device group type:          Disk
 (dsk/d8) Device group type:          Local_Disk
[Remove the node from all raw-disk device groups:]

phys-schost-1# cldevicegroup remove-node -n phys-schost-2 dsk/d4
phys-schost-1# cldevicegroup remove-node -n phys-schost-2 dsk/d2
phys-schost-1# cldevicegroup remove-node -n phys-schost-2 dsk/d1

Procedure如何變更裝置群組特性

建立裝置群組的主要所有權的方法是以名為 preferenced 的所有權喜好設定屬性的設定為基礎。如果未設定此屬性,則其他無所有者之裝置群組的主要所有者,會是第一個試圖存取該群組中磁碟的節點。不過,如果已經設定這個性質,您必須指定節點建立所有權時依據的喜好順序。

如果您停用 preferenced 屬性,則 failback 屬性也會自動停用。然而,如果您嘗試啟用或重新啟用 preferenced 屬性,則可以選擇啟用或停用 failback 屬性。

如果 preferenced 性質已經啟動或重新啟動,系統會要求您重新建立主要所有權喜好設定清單中的節點順序。

此程序使用 clsetup 來設定或重設 Solaris Volume Manager 或 VxVM 裝置群組的 preferenced 屬性及 failback 屬性。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

開始之前

若要執行這個程序,需要您變更屬性值之裝置群組的名稱。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 成為超級使用者或成為在任一叢集節點上提供 solaris.cluster.readsolaris.cluster.modify RBAC 授權的角色。

  2. 啟動 clsetup 公用程式。


    # clsetup
    

    顯示 Main Menu。

  3. 若要與裝置群組一起執行,請鍵入裝置群組和磁碟區的對應數目。

    會出現 Device Groups Menu。

  4. 若要變更裝置群組的重要特性,請鍵入對應選項的數目以變更 VxVM 或 Solaris Volume Manager 裝置群組的主要特性。

    顯示 Change Key Properties Menu。

  5. 若要變更裝置群組的重要特性,請鍵入對應選項的數目以變更偏好和/或容錯回復的特性。

    請依指示來設定裝置群組的 preferencedfailback 選項。

  6. 驗證裝置群組屬性是否已變更。

    請查詢下列指令顯示的裝置群組資訊。


    # cldevicegroup show -v devicegroup 
    

範例 5–25 變更裝置群組特性

以下範例顯示 cldevicegroup 指令 (clsetup 在設定裝置群組 dg-schost-1 的屬性值時所產生)。


# cldevicegroup set -p preferenced=true -p failback=true -p numsecondaries=1 \
-p nodelist=phys-schost-1,phys-schost-2 dg-schost-1
# cldevicegroup show dg-schost-1

=== Device Groups ===                          

Device Group Name:                        dg-schost-1
  Type:                                     SVM
  failback:                                 yes
  Node List:                                phys-schost-1, phys-schost-2
  preferenced:                              yes
  numsecondaries:                           1
  diskset names:                             dg-schost-1

Procedure如何設定裝置群組的次要節點數目

如果主要節點故障,numsecondaries 特性會在可管理群組的裝置群組中指定節點數目。裝置服務預設的次要節點數目為 1。您可將此值設定為介於 1 和裝置群組中運作的非主要提供者之節點數之間的任何整數。

在平衡叢集效能與可用性上,這個設定是很重要的因素。例如,增加所要的次要節點數目,可以增加裝置群組對抗叢集中同時發生多種故障的機會。不過,增加次要節點數目也會定期降低正常作業時的效能。較小的次要節點數目一般會產生較佳的效能,但是會降低可用性。不過,較大的次要節點數目卻不一定會使上述檔案系統或裝置群組具有較高的可用性。請參閱「Sun Cluster Concepts Guide for Solaris OS」中的第 3 章「Key Concepts for System Administrators and Application Developers」,以取得更多資訊。

如果 numsecondaries 屬性改變,且此變更造成次要節點的實際數目與所要數目不符,則次要節點會增加或從裝置群組移除。

此程序使用 clsetup 公用程式設定所有裝置群組類型的 numsecondaries 特性。配置任何裝置群組時,請參閱 cldevicegroup(1CL) 以取得關於裝置群組選項的資訊。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 成為超級使用者或成為在任一叢集節點上提供 solaris.cluster.readsolaris.cluster.modify RBAC 授權的角色。

  2. 啟動 clsetup 公用程式。


    # clsetup
    

    顯示 Main Menu。

  3. 若要與裝置群組一起執行,請選取標示「裝置群組和磁碟區」的選項。

    會出現 Device Groups Menu。

  4. 若要變更裝置群組的重要特性,請選取標示「變更裝置群組主要特性」的選項。

    顯示 Change Key Properties Menu。

  5. 若要變更次要節點所想要的數目,請鍵入與選項相符的數目以變更 numsecondaries 特性。

    遵循指示進行,並輸入要為裝置群組配置的所要次要節點數目。接著會執行對應的 cldevicegroup 指令、列印且公用程式會返回前一個功能表。

  6. 驗證裝置群組配置。


    # cldevicegroup show dg-schost-1
    === Device Groups ===                          
    
    Device Group Name:                    dg-schost-1
      Type:                                 VxVm  這也可能是 SDS 或 Local_Disk。
      failback:                             yes
      Node List:                            phys-schost-1, phys-schost-2 phys-schost-3
      preferenced:                          yes
      numsecondaries:                       1
      diskgroup names:                         dg-schost-1

    備註 –

    如果您變更了任何在叢集註冊完成的 VxVM 磁碟群組或磁碟區的配置資訊,必須使用 clsetup 來重新註冊裝置群組。此處所指的配置資訊變更包括新增或移除磁碟區,以及變更現有磁碟區的群組、擁有者或權限。配置變更後重新註冊可以確保全域名稱空間處於正確的狀態。請參閱如何更新全域裝置名稱空間


  7. 驗證裝置群組屬性是否已變更。

    請查詢下列指令所顯示的裝置群組資訊。


    # cldevicegroup show -v devicegroup 
    

範例 5–26 變更所需的次要節點數目 (Solstice DiskSuite 或 Solaris Volume Manager)

以下範例顯示當 clsetup 配置裝置群組 (dg-schost-1) 所要的次要節點數目時,所產生的 cldevicegroup 指令。此範例假設磁碟群組及磁碟區在先前便已建立。


# cldevicegroup set -p numsecondaries=1 dg-schost-1
# cldevicegroup show -v dg-schost-1

=== Device Groups ===                          

Device Group Name:                        dg-schost-1
  Type:                                     SVM
  failback:                                 yes
  Node List:                                phys-schost-1, phys-schost-2
  preferenced:                              yes
  numsecondaries:                           1
  diskset names:                             dg-schost-1


範例 5–27 SPARC: 設定所需的次要節點數目 (VERITAS Volume Manager)

以下範例顯示當 clsetup 設定裝置群組 (dg-schost-1) 所要的次要節點數目時,所產生的 cldevicegroup 指令。請參閱如何設定裝置群組的次要節點數目,以取得有關在建立裝置群組後變更所需的次要節點數目的資訊。


# cldevicegroup set -p numsecondaries=2 dg-schost-1

# cldevicegroup show dg-schost-1
=== Device Groups ===                          

Device Group Name:                        dg-schost-1
  Type:                                     VxVM
  failback:                                 yes
  Node List:                                phys-schost-1, phys-schost-2
  preferenced:                              yes
  numsecondaries:                           1
  diskgroup names:                             dg-schost-1 


範例 5–28 將所要的次要節點數目設定成預設值。

以下範例顯示使用空字串值來配置次要節點的預設數目。裝置群組將配置為使用預設值,即使預設值改變。


# cldevicegroup set -p numsecondaries= dg-schost-1
# cldevicegroup show -v dg-schost-1

=== Device Groups ===                          

Device Group Name:                        dg-schost-1
  Type:                                     SVM
  failback:                                 yes
  Node List:                                phys-schost-1, phys-schost-2 phys-schost-3
  preferenced:                              yes
  numsecondaries:                           1
  diskset names:                             dg-schost-1

Procedure如何列出裝置群組配置

您不需是超級使用者便可列出配置。不過,您需要 solaris.cluster.read 授權。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 請使用以下清單中的方法之一。

    Sun Cluster Manger GUI

    請參閱 Sun Cluster Manager 線上說明,以取得詳細資訊。

    cldevicegroup show

    使用 cldevicegroup show 列出所有叢集中裝置群組的配置。

    cldevicegroup show devicegroup

    使用 cldevicegroup show devicegroup 列出單一裝置群組的配置。

    cldevicegroup status devicegroup

    使用 cldevicegroup status devicegroup 判定單一裝置群組的狀況。

    cldevicegroup status +

    使用 cldevicegroup status + 判定叢集中所有裝置群組的狀況。

    以這些指令中的任何一個來使用 -v 選項以取得更多詳細資訊。


範例 5–29 列出所有裝置群組的狀況。


# cldevicegroup status +

=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name    Primary         Secondary        Status
-----------------    -------         ---------        ------
dg-schost-1          phys-schost-2   phys-schost-1    Online
dg-schost-2          phys-schost-1   --               Offline
dg-schost-3          phys-schost-3   phy-shost-2      Online


範例 5–30 列出某一特定裝置群組的配置


# cldevicegroup show dg-schost-1

=== Device Groups ===                          

Device Group Name:                              dg-schost-1
  Type:                                           SVM
  failback:                                       yes
  Node List:                                      phys-schost-2, phys-schost-3
  preferenced:                                    yes
  numsecondaries:                                 1
  diskset names:                                   dg-schost-1

Procedure如何切換裝置群組的主要節點

此程序也可以用於啟動非使用中的裝置群組 (使其連線)。

您也可將非作用中的裝置群組予以連線,或使用 Sun Cluster Manager GUI 切換裝置群組的主要節點。請參閱 Sun Cluster Manager 線上說明,以取得詳細資訊。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 在任一叢集節點上,成為超級使用者,或成為提供 solaris.cluster.modify RBAC 授權的設定檔。

  2. 使用 cldevicegroup switch 切換裝置群組的主要節點。


    # cldevicegroup switch -n nodename devicegroup 
    
    -n nodename

    指定要切換至哪一個節點名稱,此節點會成為新的主要節點。

    裝置群組

    指定要切換的裝置群組。

  3. 驗證裝置群組是否已經切換到新的主要節點。

    如果裝置群組已正確註冊,在使用以下指令時,將顯示新裝置群組的資訊。


    # cldevice status devicegroup
    

範例 5–31 切換裝置群組的主要節點

以下範例顯示如何切換裝置群組的主要節點以及驗證變更。


# cldevicegroup switch -n phys-schost-1 dg-schost-1

# cldevicegroup status dg-schost-1

=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name    Primary        Secondary       Status
-----------------    -------        ---------       ------
dg-schost-1          phys-schost-1   phys-schost-2  Online

Procedure如何使裝置群組進入維護狀態

使裝置群組進入維護狀態可避免在存取其中一個裝置時,裝置群組自動連線。在完成需要所有 I/O 活動停止直到維修完成的維修程序後,您應使裝置群組處於維護狀態。使裝置群組處於維護狀態也可避免資料流失,可確保當一個節點的磁碟組或磁碟群組在維修時,磁碟裝置群組不會連線到另一個節點上。


備註 –

您必須先停止所有存取裝置的動作、卸載所有相依檔案系統,之後才能使該裝置群組進入維護狀態。


此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 使裝置群組進入維護狀態。

    1. 如果已啟用裝置群組,請停用裝置群組。


      # cldevicegroup disable devicegroup
      
    2. 使裝置群組離線。


      # cldevicegroup offline devicegroup
      
  2. 如果所執行的修復程序需要磁碟組或磁碟群組的所有權,請以手動方式匯入該磁碟組或磁碟群組。

    用於 Solaris Volume Manager:


    # metaset -C take -f -s diskset
    

    注意 – 注意 –

    如果您要取得 Solaris Volume Manager磁碟組的所有權,則當裝置群組處於維護狀態時,您必須使用 metaset -C take 指令。使用 metaset -t 會使裝置群組以部分所有權形式恢復連線。如果您要匯入 VxVM 磁碟群組,必須在匯入磁碟群組時使用 -t 旗標。使用 -t 旗標可避免在此節點重新啟動時,產生自動匯入磁碟群組的情形。


    針對 VERITAS Volume Manager:


    # vxdg -t import disk-group-name
    
  3. 完成任何需要執行的維修程序。

  4. 釋放磁碟組或磁碟群組的所有權。


    注意 – 注意 –

    使裝置群組脫離維護狀態前,您必須釋放磁碟組或磁碟群組的所有權。無法釋放所有權會導致資料喪失。


    • 用於 Solaris Volume Manager:


      # metaset -C release -s diskset
      
    • 針對 VERITAS Volume Manager:


      # vxdg deport diskgroupname
      
  5. 使裝置群組進入連線狀態。


    # cldevicegroup online devicegroup
    # cldevicegroup enable devicegroup
    

範例 5–32 使裝置群組進入維護狀態

此範例顯示如何使裝置群組 dg-schost-1 進入維護狀態,以及如何從維護狀態移除裝置群組。


[將裝置群組置於維護狀態。]
# cldevicegroup disable dg-schost-1
# cldevicegroup offline dg-schost-1 
[若有需要,手動匯入磁碟組或磁碟群組。]
若為 Solaris Volume Manager:
  # metaset -C take -f -s dg-schost-1
若為 VERITAS Volume Manager:
  # vxdg -t import dg1
  
[完成所有必須的修復程序。]
  
[釋放所有權。]
若為 Solaris Volume Manager:
  # metaset -C release -s dg-schost-1
若為 VERITAS Volume Manager:
  # vxdg deport dg1
  
[使裝置群組上線。]
# cldevicegroup online dg-schost-1
# cldevicegroup enable dg-schost-1

管理儲存裝置的 SCSI 通訊協定設定

Sun Cluster 軟體安裝會自動指定 SCSI 保留至所有儲存裝置。使用下列程序檢查裝置設定,且,如有必要, 置換裝置的設定。

Procedure如何顯示所有儲存裝置的預設全域 SCSI 通訊協定設定。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 成為超級使用者或成為提供 solaris.cluster.read RBAC 授權的角色。

  2. 從任何節點,顯示目前的全域預設 SCSI 通訊協定設定。


    # cluster show -t global
    

    如需更多資訊,請參閱 cluster(1CL) 線上手冊。


範例 5–33 顯示所有儲存裝置的預設全域 SCSI 通訊協定設定

下列範例顯示所有儲存裝置的預設全域 SCSI 通訊協定設定


# cluster show -t global

=== Cluster ===                                

Cluster Name:                                   racerxx
  installmode:                                    disabled
  heartbeat_timeout:                              10000
  heartbeat_quantum:                              1000
  private_netaddr:                                172.16.0.0
  private_netmask:                                255.255.248.0
  max_nodes:                                      64
  max_privatenets:                                10
  global_fencing:                                 scsi3
  Node List:                                      phys-racerxx-1, phys-racerxx-2

Procedure如何顯示單一儲存裝置的 SCSI 通訊協定

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 成為超級使用者或成為提供 solaris.cluster.read RBAC 授權的角色。

  2. 從任何節點,顯示儲存裝置的 SCSI 通訊協定設定。


    # cldevice show device
    
    device

    裝置路徑的名稱或裝置名稱

    如需更多資訊,請參閱 cldevice(1CL) 線上手冊。


範例 5–34 顯示單一裝置的 SCSI 通訊協定

下列範例顯示裝置 /dev/rdsk/c4t8d0 的 SCSI 通訊協定。


# cldevice show /dev/rdsk/c4t8d0


=== DID Device Instances ===                   

DID Device Name:                                /dev/did/rdsk/d3
  Full Device Path:                               phappy1:/dev/rdsk/c4t8d0
  Full Device Path:                               phappy2:/dev/rdsk/c4t8d0
  Replication:                                    none
  default_fencing:                                global

Procedure如何變更所有儲存裝置的預設全域 SCSI 通訊協定設定

當裝置的預設阻檔設定為 pathcountscsi3 時,單一儲存裝置的預設阻擋設定會將全域設定覆寫。如果儲存裝置的預設阻擋設定被設定為 global,儲存裝置將會使用全域設定。例如,如果儲存裝置擁有預設設定 pathcount,且如果您使用此程序將全域 SCSI 通訊協定設定變更為 scsi3,設定將不會變更。您必須使用如何變更單一儲存裝置的 SCSI 通訊協定程序來變更單一裝置的預設設定。

若要變更法定裝置的預設阻擋設定,您必須取消配置該裝置、變更設定並重新配置法定裝置。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 成為超級使用者,或成為提供 solaris.cluster.modify RBAC 授權的角色。

  2. 設定不是法定裝置的所有儲存裝置的 SCSI 通訊協定。


    cluster set -p global_fencing={scsi3 | pathcount}
    -p global_fencing

    設定所有共用裝置目前的全域初始阻擋演算法。

    scsi3

    使用 SCSI-3 通訊協定。

    pathcount

    透過連接至共用儲存裝置的 DID 路徑數目來判定阻擋通訊協定。


範例 5–35 設定所有儲存裝置的預設全域 SCSI 通訊協定設定

下列範例將叢集上的所有儲存裝置的 SCSI 通訊協定設定為 SCSI-3 通訊協定。


# cluster set -p global_fencing=scsi3

Procedure如何變更單一儲存裝置的 SCSI 通訊協定

若要變更法定裝置的預設阻擋設定,您必須取消配置該裝置。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 成為超級使用者,或成為提供 solaris.cluster.modify RBAC 授權的角色。

  2. 設定儲存裝置的 SCSI 通訊協定。


    # cldevice set -p default_fencing ={pathcount | scsi3 | global} 裝置
    
    -p

    修改裝置特性。

    pathcount

    透過連接至共用儲存裝置的 DID 路徑數目來判定阻擋通訊協定。

    scsi3

    使用 SCSI-3 通訊協定。

    全域

    使用全域預設阻擋設定。

    裝置

    指定裝置路徑的名稱或裝置名稱。

    如需更多資訊,請參閱 cluster(1CL) 線上手冊。


範例 5–36 設定單一裝置的 SCSI 通訊協定

下列範例將裝置 11 設為 SCSI-3 通訊協定,其由裝置編號所指定。


# cldevice set -p default_fencing=scsi3 5

管理叢集檔案系統

叢集檔案系統是一個可以從叢集的任一節點讀取與存取的全域可用檔案系統。

表 5–4 對應作業:管理叢集檔案系統

作業 

操作說明 

藉由使用 newfs(1M)mkdir 來在初始 Sun Cluster 安裝後增加叢集檔案系統。

如何新增叢集檔案系統

藉由使用 fuser(1M)umount(1M) 來移除叢集檔案系統

如何移除叢集檔案系統

藉由使用 sccheck(1M) 來跨節點檢查叢集中全域掛載點的一致性

如何檢查叢集中的全域裝載

Procedure如何新增叢集檔案系統

初次安裝 Sun Cluster 後,請對建立的每一個叢集檔案系統執行這個程序。


注意 – 注意 –

請務必指定正確的磁碟裝置名稱。建立叢集檔案系統會毀損該磁碟中的所有資料。如果您指定錯誤的裝置名稱,您可能會消除不想刪除的資料。


請確保下列必要條件已在增加額外的叢集檔案系統前完成。

如果您已使用 Sun Cluster Manager 來安裝資料服務,而且有足夠用來建立叢集檔案系統的共用磁碟,那麼就已經有一個或多個叢集檔案系統存在了。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 成為叢集中任何節點的超級使用者。


    提示 –

    若要快速建立檔案系統,請在您想建立檔案系統之全域裝置的現行主要節點上成為超級使用者。


  2. 使用 newfs 指令建立檔案系統。


    備註 –

    newfs 指令只有在建立新的 UFS 檔案系統時才有效。要建立新的 VxFS 檔案系統,請遵循 VxFS 說明文件中所列的程序。



    # newfs raw-disk-device
    

    下表顯示 raw-disk-device 引數的名稱範例。請注意,每個磁碟區管理程式的命名慣例都不一樣。

    磁碟區管理程式 

    磁碟裝置名稱 

    說明 

    Solaris Volume Manager 

    /dev/md/oracle/rdsk/d1

    oracle 磁碟組中的原始磁碟裝置 d1

    SPARC:VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    原始磁碟裝置 vol01,在 oradg 磁碟組內 。

    無 

    /dev/global/rdsk/d1s3

    區塊片段 d1s3 的原始磁碟裝置。

  3. 在叢集的每個節點上,建立叢集檔案系統的掛載點目錄。

    每一個節點均需要一個裝載點,即使不會從此節點存取叢集檔案系統。


    提示 –

    為了方便管理,請在 /global/裝置群組目錄內建立掛載點。這個位置可讓您容易區分叢集檔案系統是全域可用或本機檔案系統。



    # mkdir -p /global/devicegroup mountpoint
    
    devicegroup

    與包含裝置的裝置群組名稱相對應的目錄名稱。

    mountpoint

    要裝載叢集檔案系統的目錄名稱。

  4. 在叢集的每一個節點上,將裝載點的項目加入 /etc/vfstab 檔。

    1. 使用下列的必要裝載選項。


      備註 –

      記錄對所有的叢集檔案系統是必要的。


      • Solaris UFS 記錄 –使用 global,logging 掛載選項。請參閱 mount_ufs(1M) 線上手冊,以取得有關 UFS 掛載選項的更多資訊。


        備註 –

        syncdir 裝載選項對於 UFS 叢集檔案系統而言並非必要。如果指定 syncdir,您可以獲得保證的 POSIX 相容檔案系統功能。如果沒有指定,您會發現功能將會與 UFS 檔案系統相同。當未指定 syncdir 時,可以明顯地增進配置磁碟區塊的寫入功能,例如在檔案中附加資料的情況時。但在某些情況下,如果沒有 syncdir,除非您關閉檔案,否則將不會發現空間不足的狀況。因為沒有指定 syncdir 而發生問題,這種機率非常小。使用 syncdir (和 POSIX 功能),在關閉之前就可發現空間不足的狀況。


      • Solaris Volume Manager 作業事件磁碟區 – 使用 global 裝載選項 (勿使用 logging 裝載選項)。請參閱 Solaris Volume Manager 文件以取得有關設定作業事件磁碟區的資訊。


        備註 –

        未來的 Solaris 軟體發行版本將從 Solaris 作業系統中移除作業事件磁碟區。Solaris UFS 登入提供與其相同的功能,且效能更優、系統管理需求更低、管理費用更少。


      • VxFS 記錄 – 使用 globallog 掛載選項。請參閱 VxFS 軟體隨附的 mount_vxfs 線上說明手冊,以取得詳細資訊。

    2. 若要自動裝載叢集檔案系統,請將 mount at boot 欄位設定為 yes

    3. 對每一個叢集檔案系統,確定其 /etc/vfstab 項目中的資訊在每一個節點上都相同。

    4. 請確定每一個節點的 /etc/vfstab 檔案中的項目是以相同次序列示裝置。

    5. 檢查檔案系統的啟動順序相依關係。

      例如,考慮以下情況,phys-schost-1 裝載磁碟裝置 d0/global/oracle 上,而 phys-schost-2 則裝載磁碟裝置 d1/global/oracle/logs 上。使用此配置,phys-schost-2 只有在 phys-schost-1 啟動並掛載 /global/oracle 後才能夠啟動並掛載 /global/oracle/logs

    請參閱 vfstab(4) 線上援助頁,以取得詳細資訊。

  5. 在叢集的任一個節點上,驗證裝載點存在而且 /etc/vfstab 檔案項目在叢集的所有節點上都正確。


     # sccheck
    

    如果沒有發生錯誤,則不會傳回任何項目。

  6. 從叢集的任一節點裝載叢集檔案系統。


    # mount /global/devicegroup mountpoint
    
  7. 在叢集的每一個節點上,驗證叢集檔案系統已經裝載。

    您可以使用 dfmount 指令來列出已裝載的檔案系統。

    若要在 Sun Cluster 環境中管理 VxFS 叢集檔案系統,您只能從裝載 VxFS 叢集檔案系統的主要節點上執行管理指令。


範例 5–37 增加叢集檔案系統

以下範例可以在 Solaris Volume Manager 中介裝置或磁碟區 /dev/md/oracle/rdsk/d1 上建立 UFS 叢集檔案系統。


# newfs /dev/md/oracle/rdsk/d1
...
 
[在每個節點:]
# mkdir -p /global/oracle/d1
 
# vi /etc/vfstab
#device                device                 mount            FS  fsck  mount   mount
#to mount              to fsck                point           type pass  at boot options
# /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging

[儲存並結束]
 
[在每個節點:]
# sccheck
# mount /dev/md/oracle/dsk/d1 /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles 
on Sun Oct 3 08:56:16 2001

Procedure如何移除叢集檔案系統

您只要執行卸載,便可以移除叢集檔案系統。如果您還要移除或刪除資料,請從系統移除基礎磁碟裝置 (或中介裝置或磁碟區)。


備註 –

當您執行 cluster shutdown 來停止整個叢集時,叢集檔案系統會自動卸載,當作系統關機序的一部份。當您執行 shutdown 以停止單一節點時,不會卸載叢集檔案系統。不過,如果要關機的節點是唯一連到磁碟的節點,則對該磁碟上叢集檔案系統的任何存取都會導致錯誤。


請確保在卸載叢集檔案系統前已完成下列先決條件:

  1. 成為叢集中任何節點的超級使用者。

  2. 判斷哪些叢集檔案系統已經裝載。


    # mount -v
    
  3. 在每一個節點上,列出正在使用叢集檔案系統的所有程序,這樣一來,您即可知道要停止哪個程序。


    # fuser -c [ -u ] mountpoint
    
    -c

    產生檔案系統之裝載點以及所裝載之檔案系統內之檔案的報告。

    -u

    (選用性) 顯示每一個處理 ID 的使用者登入名稱。

    mountpoint

    指定您要停止處理的叢集檔案系統名稱。

  4. 在每一個節點上,停止叢集檔案系統的所有處理。

    請使用慣用的方法停止處理。如果必要,請使用以下指令來強迫結束與叢集檔案系統關聯的處理。


    # fuser -c -k mountpoint
    

    將會傳送 SIGKILL 給每一個使用叢集檔案系統的程序。

  5. 在每個節點上,確認沒有其他程序正在使用檔案系統。


    # fuser -c mountpoint
    
  6. 僅從一個節點卸載檔案系統。


    # umount mountpoint
    
    mountpoint

    指定您要卸載的叢集檔案系統名稱,這可以是裝載叢集檔案系統的目錄名稱,也可以是檔案系統的裝置名稱路徑。

  7. (選用) 編輯 /etc/vfstab 檔,刪除要移除之叢集檔案系統的項目。

    請對每一個 /etc/vfstab 檔中含有該叢集檔案系統項目的叢集節點,執行這個步驟。

  8. (可選擇) 移除磁碟裝置 group/metadevice/volume/plex

    請參閱磁碟區管理程式說明文件,以取得詳細資訊。


範例 5–38 移除叢集檔案系統

以下範例會移除 Solaris Volume Manager 中介裝置或磁碟區 /dev/md/oracle/rdsk/d1 上掛載的 UFS 叢集檔案系統。


# mount -v
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles 
# fuser -c /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c -k /global/oracle/d1
/global/oracle/d1: 4006c
# fuser -c /global/oracle/d1
/global/oracle/d1:
# umount /global/oracle/d1
 
(在每個節點,移除反白的項目:)
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging

[儲存並結束。]

要移除叢集檔案系統上的資料,請移除其基礎裝置。請參閱磁碟區管理程式說明文件,以取得詳細資訊。


Procedure如何檢查叢集中的全域裝載

sccheck(1M) 公用程式會驗證 /etc/vfstab 檔案中叢集檔案系統項目的語法。如果沒有發生錯誤,則不會傳回任何項目。


備註 –

請在進行影響裝置或磁碟區管理元件的叢集配置變更 (例如移除叢集檔案系統) 後執行 sccheck


  1. 成為叢集中任何節點的超級使用者。

  2. 檢查叢集全域裝載。


     # sccheck
    

管理磁碟路徑監視

磁碟路徑監視 (DPM) 管理指令可讓您收到次要磁碟路徑故障的通知。使用本節中的程序來執行與監視磁碟路徑關聯的管理作業。請參閱 「Sun Cluster Concepts Guide for Solaris OS」中的第 3 章「Key Concepts for System Administrators and Application Developers」第 3 章「Key Concepts for System Administrators and Application Developers」以取得關於磁碟路徑監視常駐程式的概念資訊。請參閱 cldevice(1CL) 線上手冊以取得 scdpm 指令選項與相關指令的說明。請參閱 syslogd(1M) 線上手冊以取得常駐程式報告的登入錯誤。


備註 –

當使用 cldevice 指令將 I/O 裝置增加至某個節點時,磁碟路徑會自動增加至受監視的監視清單中。當使用 Sun Cluster 指令從某個節點移除裝置時,磁碟路徑也會自動取消監視。


表 5–5 對應作業:管理磁碟路徑監視

作業 

操作說明 

使用 cldevice monitor 指令監視磁碟路徑

如何監視磁碟路徑

使用 cldevice unmonitor 指令取消監視磁碟路徑

如何取消監視磁碟路徑

使用 cldevice status 指令列印節點故障磁碟路徑的狀況。

如何列印發生故障的磁碟路徑

使用 cldevice 從檔案中監視磁碟路徑

如何監視檔案的磁碟路徑

當所有監視的磁碟路徑都故障時,使用 clnode set 指令啟用或停用節點自動重新啟動。

當所有監視的路徑均故障時,如何啟用自動重新啟動

當所有監視的路徑均故障時,如何停用自動重新啟動

在下節中,發出 cldevice 指令的的程序包含磁碟路徑引數。磁碟路徑引數由節點名稱與磁碟名稱構成。如果您不指定節點,則不需要節點名稱,而預設為 all

Procedure如何監視磁碟路徑

執行此作業以監視叢集中的磁碟路徑。


注意 – 注意 –

如果節點執行的是 Sun Cluster 3.1 10/03 發行版本之前的軟體版本,則該節點上不支援 DPM。當進行滾動升級時,請勿使用 DPM 指令。在升級了所有節點後,節點必須在線上才能使用 DPM 指令。


此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 在叢集的任一節點上成為超級使用者或成為提供 solaris.cluster.modify RBAC 授權的角色。

  2. 監視磁碟路徑


    # cldevice monitor -n node disk
    
  3. 確認已監視磁碟路徑。


    # cldevice status device
    

範例 5–39 監視單一節點上的磁碟路徑

在以下範例中,從單一節點監視 schost-1:/dev/did/rdsk/d1 磁碟路徑。只有節點 schost-1 上的 DPM 常駐程式監視磁碟路徑 /dev/did/dsk/d1


# cldevice monitor -n schost-1 /dev/did/dsk/d1
# cldevice status d1

Device Instance   Node           Status
--------------- ---- ------
/dev/did/rdsk/d1   phys-schost-1 Ok


範例 5–40 監視所有節點上的磁碟路徑

在以下範例中,從所有節點監視 schost-1:/dev/did/dsk/d1 磁碟路徑。在 /dev/did/dsk/d1 為有效路徑的所有節點上啟動 DPM。


# cldevice monitor /dev/did/dsk/d1
# cldevice status /dev/did/dsk/d1

Device Instance   Node           Status
--------------- ---- ------
/dev/did/rdsk/d1   phys-schost-1 Ok


範例 5–41 從 CCR 重新讀取磁碟配置

以下範例強制常駐程式讀取 CCR 的磁碟配置,並列印帶有狀態的監視磁碟路徑。


# cldevice monitor +
# cldevice status
Device Instance              Node               Status
---------------              ----               ------
/dev/did/rdsk/d1             schost-1           Ok
/dev/did/rdsk/d2             schost-1           Ok
/dev/did/rdsk/d3             schost-1           Ok
                              schost-2          Ok
/dev/did/rdsk/d4             schost-1           Ok
                              schost-2          Ok
/dev/did/rdsk/d5             schost-1           Ok
                              schost-2          Ok
/dev/did/rdsk/d6             schost-1           Ok
                              schost-2          Ok
/dev/did/rdsk/d7             schost-2           Ok
/dev/did/rdsk/d8             schost-2           Ok

Procedure如何取消監視磁碟路徑

使用此程序取消監視磁碟路徑。


注意 – 注意 –

如果節點執行的是 Sun Cluster 3.1 10/03 發行版本之前的軟體版本,則該節點上不支援 DPM。當進行滾動升級時,請勿使用 DPM 指令。在升級了所有節點後,節點必須在線上才能使用 DPM 指令。


此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 在叢集的任一節點上成為超級使用者或成為提供 solaris.cluster.modify RBAC 授權的角色。

  2. 決定要取消監視的磁碟路徑之狀態。


    # cldevice status device
    
  3. 在每一個節點上,取消監視適當的磁碟路徑。


    # cldevice unmonitor -n 節點 磁碟
    

範例 5–42 取消監視磁碟路徑

在以下範例中,取消監視 schost-2:/dev/did/rdsk/d1 磁碟路徑,並列印了帶有整個叢集狀態的磁碟路徑。


# cldevice unmonitor -n schost2 /dev/did/rdsk/d1
# cldevice status -n schost2 /dev/did/rdsk/d1

Device Instance              Node               Status
---------------              ----               ------
/dev/did/rdsk/d1             schost-2           Unmonitored

Procedure如何列印發生故障的磁碟路徑

使用以下程序列印叢集中的故障磁碟路徑。


注意 – 注意 –

如果節點執行的是 Sun Cluster 3.1 10/03 發行版本之前的軟體版本,則該節點上不支援 DPM。當進行滾動升級時,請勿使用 DPM 指令。在升級了所有節點後,節點必須在線上才能使用 DPM 指令。


  1. 成為叢集中任何節點的超級使用者。

  2. 列印整個叢集中的故障磁碟路徑。


    # cldevice status -s fail
    

範例 5–43 列印發生故障的磁碟路徑

以下範例列印了整個叢集的故障磁碟路徑。


# cldevice status -s fail
     
Device Instance               Node              Status
---------------               ----              ------
dev/did/dsk/d4                phys-schost-1     fail

Procedure如何監視檔案的磁碟路徑

使用以下程序監視或取消監視檔案的磁碟路徑。

若要使用某一檔案變更您的叢集配置,您必須先匯出目前的配置。此作業可建立一個 XML 檔好讓您可修改以設定您正在變更的配置項目。此程序中的指示說明了整個過程。


注意 – 注意 –

如果節點執行的是 Sun Cluster 3.1 10/03 發行版本之前的軟體版本,則該節點上不支援 DPM。當進行滾動升級時,請勿使用 DPM 指令。在升級了所有節點後,節點必須在線上才能使用 DPM 指令。


此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 在叢集的任一節點上成為超級使用者或成為提供 solaris.cluster.modify RBAC 授權的角色。

  2. 將您的裝置配置匯出至 XML 檔。


    # cldevice export -o configurationfile
    
    -o 配置檔

    指定 XML 檔的檔案名稱。

  3. 修改配置檔以讓裝置路徑受監視。

    找出您想監視的裝置路徑,並設定 monitored 屬性至 true

  4. 監視裝置路徑


    # cldevice monitor -i configurationfile
    
    -i 配置檔

    指定修改的 XML 檔的檔案名稱。

  5. 驗證裝置路徑現在是否受監視。


    # cldevice status
    

範例 5–44 監視檔案的磁碟路徑

在下列範例中,可使用一 XML 檔來讓節點 phys-schost–2 和裝置 d3 間的裝置路徑受監視。

第一步即為匯出目前叢集的配置。


# cldevice export -o deviceconfig

deviceconfig XML 檔顯示 phys-schost–2d3 間的路徑目前不受監視。


<?xml version="1.0"?>
<!DOCTYPE cluster SYSTEM "/usr/cluster/lib/xml/cluster.dtd">
<cluster name="brave_clus">
.
.
.
   <deviceList readonly="true">
    <device name="d3" ctd="c1t8d0">
      <devicePath nodeRef="phys-schost-1" monitored="true"/>
      <devicePath nodeRef="phys-schost-2" monitored="false"/>
    </device>
  </deviceList>
</cluster>

若要監視該路徑,請將監視的 attribute 設定為 true,方法如下:


<?xml version="1.0"?>
<!DOCTYPE cluster SYSTEM "/usr/cluster/lib/xml/cluster.dtd">
<cluster name="brave_clus">
.
.
.
   <deviceList readonly="true">
    <device name="d3" ctd="c1t8d0">
      <devicePath nodeRef="phys-schost-1" monitored="true"/>
      <devicePath nodeRef="phys-schost-2" monitored="true"/>
    </device>
  </deviceList>
</cluster>

使用 cldevice 指令讀取檔案並開啟監視。


# cldevice monitor -i deviceconfig

使用 cldevice 指令驗證該裝置現在是否受監視。


# cldevice status

另請參閱

如需更多關於匯出叢集配置和使用產生出的 XML 檔來設定叢集配置的詳細資訊,請參閱 cluster(1CL)clconfiguration(5CL) 線上手冊。

Procedure當所有監視的路徑均故障時,如何啟用自動重新啟動

當您啟用此功能時,節點會自動重新啟動,其則代表符合下列情形:

重新啟動節點會在另一個節點上重新啟動該節點所控制的所有資源群組和裝置群組。

如果節點上的所有受監視的磁碟路徑在節點自動重新啟動後仍無法存取,該節點不會再次自動重新啟動。然而,如果磁碟路徑在節點重新啟動後變為可用卻接著失敗,該節點會再次自動重新啟動。

  1. 在任一叢集節點上,成為超級使用者或成為提供 solaris.cluster.modify RBAC 授權的角色。

  2. 至於叢集中的 所有 節點,當所有連接到該處的監視磁碟路徑都故障時,請啟用節點自動重新啟動。


    # clnode set -p reboot_on_path_failure=enabled +
    

Procedure當所有監視的路徑均故障時,如何停用自動重新啟動

當您停用此功能且所有節點上的受監視之磁碟路徑皆故障時,該節點 不會自動重新啟動。

  1. 在任一叢集節點上,成為超級使用者或成為提供 solaris.cluster.modify RBAC 授權的角色。

  2. 至於叢集中的所有節點,當所有連接到該處的監視磁碟路徑都故障時,請停用節點自動重新啟動。


    # clnode set -p reboot_on_path_failure=disabled +