Sun Cluster 3.0 5/02 增補

第 6章 系統管理

本章提供新加入 Sun Cluster 3.0 5/02 更新版次中的系統管理資訊。 此項資訊為 Sun Cluster 3.0 12/01 系統管理手冊 的增補。

本章包含下列主題的新資訊。

管理磁碟裝置群組

下述資訊適用於本更新版次以及所有後續的更新版次。

VERITAS Volume Manager 管理注意事項 (5/02)

在 Sun Cluster 3.0 5/02 更新版次中,已於本節加入了下列兩個項目,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。

如何從所有磁碟裝置群組 (5/02) 移除節點

使用此程序從所有在其潛在主要節點清單中列出節點的磁碟裝置群組,移除一個叢集節點。

  1. 在所有磁碟裝置群組中您要移除的潛在主要節點上成為超級使用者。

  2. 決定要移除其受到容體管理控制的成員節點的磁碟裝置群組。

    裝置群組節點清單中尋找每一個磁碟裝置群組的節點名稱。


    # scconf -p | grep ¨Device group¨
    

  3. 是否有任何在 步驟 2 找到的磁碟裝置群組屬於 SDS 裝置群組類型?

  4. 是否有任何在 步驟 2 找到的磁碟裝置群組屬於 VxVM 裝置群組類型?

  5. 決定要移除其成員節點的原始磁碟裝置群組。

    請注意,下列指令包含了兩個 "v",-pvv。要顯示原始磁碟裝置群組需要第二個 "v"。


    # scconf -pvv | grep ¨Device group¨
    

  6. 是否有任何列在 步驟 5 中的磁碟裝置群組屬於 DiskLocal_Disk ,或同時屬於這兩種裝置群組類型?

  7. 確認節點已從所有磁碟裝置群組的潛在主要節點中移除。

    如果節點不再列為任何磁碟裝置群組的潛在主要節點,則此項指令不會傳回任何訊息。


    # scconf -pvv | grep ¨Device group¨ | grep nodename
    

如何從磁碟裝置群組 (Solstice DiskSuite) 移除節點 (5/02)

使用此程序從 Solstice DiskSuite 磁碟裝置群組的潛在主要節點清單中,移除一個叢集節點。節點同時可屬於一個以上的磁碟裝置群組,因此請為每個您要移除節點的磁碟裝置群組,重複 metaset 指令。

  1. 決定要移除其成員節點的 Solstice DiskSuite 磁碟裝置群組。

    SDS 裝置群組類型表示一個 Solstice DiskSuite 磁碟裝置群組。


    # scconf -p | grep Device
    

  2. 在目前擁有您要修改之磁碟裝置群組的節點上成為超級使用者。

  3. 從磁碟裝置群組移除節點的主機名稱。


    # metaset -s setname -d -h nodelist
    

    -s setname

    指定磁碟裝置群組名稱

    -d

    從磁碟裝置群組移除含有 -h 的節點。

    -h nodelist

    從可主控磁碟裝置群組的節點清單中移除該節點


    註解 -

    更新可能需要數分鐘才能夠完成。


    如果指令失敗,則將 -f ([強制]) 選項加入指令中。


    # metaset -s setname -d -f -h nodelist
    

  4. 請為其所要移除節點為潛在主要節點的每一個磁碟裝置群組重複 步驟 3

  5. 確認節點已從磁碟裝置群組中移除。

    磁碟裝置群組名稱會與 metaset 指定的磁碟組名稱一致。


    # scstat -D
    

範例-從磁碟裝置群組 (Solstice DiskSuite) 移除節點

下列範例顯示如何從磁碟裝置群組配置移除主機名稱 phys-schost-2 。這會刪除成為指定磁碟裝置群組中潛在主要節點的 phys-schost-2 。藉由執行 scstat -D 指令確認節點是否移除,並檢查已移除的節點是否不再顯示於螢幕文字內。


[Determine the Solstice DiskSuite disk device group(2) for the node:}
# scconf -p | grep Device
  Device group name:                 dg-schost-1
    Device group type:               SDS
    Device group failback enabled:   no
    Device group node list:          phys-schost-1, phys-schost-2
    Device group ordered node list:  yes
    Device group diskset name:    	dg-schost-1
[Determine the disk device group(s) for the node:]
# scstat -D
  -- Device Group Servers --
                       Device Group  Primary        Secondary
                       ------------  -------        ---------
  Device group servers: dg-schost-1  phys-schost-1  phys-schost-2
[Become superuser.]
[Remove the hostname from all disk device groups:]
# metaset -s dg-schost-1 -d -h phys-schost-2
[Verify removal of the node:]
# scstat -D
  -- Device Group Servers --
                       Device Group  Primary       Secondary
                       ------------  -------       ---------
  Device group servers: dg-schost-1  phys-schost-1  -

如何從磁碟裝置群組 (VERITAS Volume Manager) 移除節點 (5/02)

使用此程序從 VERITAS Volume Manager (VxVM) 磁碟裝置群組的潛在主要節點清單,移除一個叢集節點。

  1. 決定要移除其成員節點的 VxVM 磁碟裝置群組。

    VxVM 裝置群組類型表示


    # scconf -p | grep Device
    
    VxVM 磁碟裝置群組

  2. 成為現行叢集成員節點的超級使用者。

  3. 執行 scsetup 公用程式。


    # scsetup
    

    顯示 Main Menu。

  4. 若要重新配置磁碟裝置群組,請輸入 4 (裝置群組與容體)。

  5. 要從 VxVM 磁碟裝置群組移除節點,請輸入 5 (從 VxVM 裝置群組移除節點)。

    依提示從磁碟裝置群組移除叢集節點。 系統將詢問您以下項目的相關資訊:

    • VxVM 裝置群組

    • 節點名稱

  6. 確認節點已從 VxVM 磁碟裝置群組中移除。


    # scconf -p | grep Device
    

範例-從磁碟裝置群組 (VxVM) 移除節點

這個範例顯示從 dg1 VxVM 磁碟裝置群組移除名為 phys-schost-1 的節點。


[Determine the VxVM disk device group for the node:]
# scconf -p | grep Device
  Device group name:                 dg1
    Device group type:               VxVM
    Device group failback enabled:   no
    Device group node list:          phys-schost-1, phys-schost-2
    Device group diskset name:    	dg1
[Become superuser and execute the scsetup utility:]
# scsetup
 Select Device groups and volumes>Remove a node from a VxVM device group.
Answer the questions when prompted. 
You will need the following information.
  You Will Need:            Example:
  VxVM device group name    dg1
  node names                phys-schost-1
[Verify that the scconf command executed properly:]
 
scconf -r -D name=dg1,nodelist=phys-schost-1
 
    Command completed successfully.
Quit the scsetup Device Groups Menu and Main Menu.
[Verify that the node was removed:]
# scconf -p | grep Device
  Device group name:                 dg1
    Device group type:               VxVM
    Device group failback enabled:   no
    Device group node list:          phys-schost-2
    Device group diskset name:    	dg1

如何從原始磁碟裝置群組移除節點 (5/02)

使用此程序從原始磁碟裝置群組的潛在主要節點清單中,移除一個叢集節點。

  1. 不同於要移除的節點叢集中的一個節點上成為超級使用者。

  2. 找到與已移除節點連結的磁碟裝置群組。

    裝置群組節點清單項目中尋找節點名稱。


    # scconf -pvv | grep nodename | grep	
    

  3. 決定哪些在 步驟 2 找到的磁碟裝置群組為原始磁碟裝置群組。

    原始磁碟裝置群組屬於 DiskLocal_Disk 裝置群組類型。


    # scconf -pvv | grep ¨group type¨
    

  4. 停用每一個 Local_Disk 原始磁碟裝置群組的 localonly 屬性。


    # scconf -c -D name=rawdisk-device-group,localonly=false
    

    關於 localonly 的詳細資訊,請參閱 scconf_dg_rawdisk(1M) 線上援助頁。

  5. 確認您已停用所有連結到已移除節點的原始磁碟裝置群組的 localonly 屬性。

    Disk 裝置群組勒種類表示關閉原始磁碟裝置群組的 localonly 屬性。


    # scconf -pvv | grep ¨group type¨
    

  6. 從所有在 步驟 2 中找到的原始磁碟裝置群組移除節點。

    你必須針對連結至已移除節點的每一個原始磁碟裝置群組完成這個步驟。


    # scconf -r -D name=rawdisk-device-group,nodelist=nodename
    

範例-從原始磁碟裝置群組移除節點

這個範例顯示如何從原始磁碟裝置群組移除節點 (phys-schost-2)。所有指令是從叢集的另一個節點執行 (phys-schost-1)。


[Identify the disk device groups connected to the node being removed:]
phys-schost-1# scconf -pvv | grep phys-schost-2 | grep ¨Device group node list¨	
	(dsk/d4) Device group node list:  phys-schost-2
	(dsk/d2) Device group node list:phys-schost-1, phys-schost-2
	(dsk/d1) Device group node list:phys-schost-1, phys-schost-2
[Identify the are raw disk device groups:]
phys-schost-1# scconf -pvv | grep ¨group type¨
	(dsk/d4) Device group type:          Local_Disk
	(dsk/d8) Device group type:Local_Disk
[Disable the localonly flag for each local disk on the node:]
phys-schost-1# scconf -c -D name=dsk/d4,localonly=false
[Verify that the localonly flag is disabled:]
phys-schost-1# scconf -pvv | grep ¨group type¨
    (dsk/d4) Device group type:          Disk
    (dsk/d8) Device group type:Local_Disk
[Remove the node from all raw disk device groups:]
phys-schost-1# scconf -r -D name=dsk/d4,nodelist=phys-schost-2
phys-schost-1# scconf -r -D name=dsk/d2,nodelist=phys-schost-2
phys-schost-1# scconf -r -D name=dsk/d1,nodelist=phys-schost-2

如何在一個叢集中建立三個以上的磁碟組 (5/02)

下列程序已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。

如果您想在叢集中建立三個以上的磁碟組,請在建立磁碟組之前執行下列步驟。不管您是否第一次安裝磁碟組,或您是否正要新增更多磁碟組到已完全配置的叢集,都請依照下列步驟進行:

  1. 確定 md_nsets 變數值設定得夠高,以符合您要在叢集中建立的磁碟組總數。

    1. 在叢集的任何節點上,檢查 md_nsets 變數值,該變數值位於 /kernel/drv/md.conf 檔中。

    2. 如果叢集中的磁碟組總數大於現有的 md_nsets 負值,請增加每個節點的 md_nsets 值,使其達到所需的值。

      許可的最大磁碟組數目小於 md_nsets 值。 md_nsets 的最大值為 32。

    3. 確定 /kernel/drv/md.conf 檔在叢集的每個節點上都相同。


      Caution - Caution -

      未遵循此準則會導致嚴重的 Solstice DiskSuite 錯誤和可能的資料流失。


    4. 在某一個節點上關閉叢集。


      # scshutdown -g0 -y
      

    5. 重新啟動叢集的每個節點。


      ok> boot
      

  2. 在叢集的每個節點上執行 devfsadm(1M) 指令。

    您可以在叢集的所有節點上同時執行此指令。

  3. 從叢集的某個節點執行 scgdevs(1M) 指令。

  4. 在每個節點上,確認在您試圖建立任何磁碟組之前, scgdevs 指令便已完成。

    scgdevs 指令在所有節點上自行遠端呼叫,即使只從一個節點執行指令也是如此。若要判斷 scgdevs 指令是否已經完成作業,請在叢集的每個節點上執行下列指令。


    % ps -ef | grep scgdevs
    

管理叢集檔案系統概觀

下述資訊適用於本更新版次以及所有後續的更新版次。

支援 VxFS 的準則 (5/02)

下列資訊已在 Sun Cluster 3.0 12/01 更新版次中介紹過,且適用於 Sun Cluster 3.0 軟體的該版次以及所有後續的更新版次。

下列 VxFS 特性在 Sun Cluster 3.0 配置中不受支援。

叢集配置中支援的所有其他 VxFS 特性和選項,Sun Cluster 3.0 軟體也都支援。關於在叢集配置中支援和不支援的 VxFS 選項的詳細資料,請參閱 VxFS 說明文件和線上援助頁。

下列關於如何使用 VxFS 建立高可用性叢集檔案系統的準則,是針對 Sun Cluster 3.0 配置而言。

下列有關如何管理 VxFS 叢集檔案系統的準則,並非針對 Sun Cluster 3.0 軟體。不過,這和您管理 UFS 叢集檔案系統的方法不同。

如何新增叢集檔案系統 (5/02)

在 Sun Cluster 3.0 5/02 更新版次中,這項程序的步驟 2 新增了下列注意事項,且適用於此更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。


註解 -

newfs(1M) 指令只有在建立新的 UFS 檔案系統時才有效。要建立新的 VxFS 檔案系統,請遵循 VxFS 說明文件中所列的程序。


新增與移除叢集節點

下述資訊適用於本更新版次以及所有後續的更新版次。

對應作業:移除叢集節點 (5/02)

下列對應作業在 Sun Cluster 3.0 5/02 更新版次中已經更改過,且適用於此更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。此對應作業中未提供的參照程序位於 Sun Cluster 3.0 12/01 系統管理手冊

表 6-1 對應作業:Removing a Cluster Node (5/02)

作業 

如需相關說明,請參閱... 

從所有資源群組移除節點 

- 使用 scrgadm

Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide:請參閱如何自現有資源群組移除節點的程序。

從所有磁碟裝置群組移除節點 

- 使用 scconfmetasetscsetup

"如何從所有磁碟裝置群組 (5/02) 移除節點"

使要移除的節點進入維護狀態。 

- 使用 scswitchshutdownscconf

「如何使節點進入維護狀態」 

移除所有已移除節點的邏輯傳輸連線 

- 使用 scsetup

「如何移除叢集傳輸電纜、傳輸配接卡與傳輸接點」 

 

移除所有與已移除節點共用的法定裝置 

- 使用 scsetup

「如何移除法定裝置」 

或 

「如何從叢集移除最後一個法定裝置」 

從叢集軟體配置移除節點 

- 使用 scconf

"如何從叢集軟體配置移除節點 (5/02)"

(選擇性) 從已移除的節點上移除 Sun Cluster 軟體 

- 使用 scinstall

"如何從叢集節點移除 Sun Cluster 軟體 (5/02)"

從節點與叢集將必要的共用儲存體斷線 

- 依容體管理者文件以及硬體手冊中的程序執行。如要從節點移除實體硬體,請參閱關於安裝與維護叢集交互連接與公用網路硬體的 Sun Cluster 3.0 12/01 Hardware Guide 一節。

Solstice DiskSuite 或 VxVM 管理手冊 

硬體文件 

Sun Cluster 3.0 12/01 Hardware Guide

如何從叢集軟體配置移除節點 (5/02)

下列程序已在 Sun Cluster 3.0 5/02 更新版次中更改過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。

如何從叢集節點移除 Sun Cluster 軟體 (5/02)

下列程序已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。

在您從完全建立的叢集配置將叢集節點斷線之前,請執行此程序以從叢集節點移除 Sun Cluster 軟體。您可以利用此程序從叢集最後存留的節點上移除軟體。


註解 -

若要從尚未加入叢集或仍然處於安裝模式的節點上移除 Sun Cluster 軟體,則請勿執行此程序。請另外到 Sun Cluster 3.0 12/01 軟體安裝手冊 中的「如何移除 Sun Cluster 軟體以修正安裝問題」。


  1. 請確定您已正確完成移除叢集節點的對應作業中所列的所有必備作業。

    請參閱 Sun Cluster 3.0 12/01 系統管理手冊 中的「新增與移除叢集節點」。


    註解 -

    請確定在繼續這個程序前,您已從所有資源群組、裝置群組以及法定裝置配置移除節點、讓它進入維護狀態,並從叢集將它移除。


  2. 在您將移除的節點之外的主動叢集成員上成為超級使用者。

  3. 從主動的叢集成員上,將您想要移除的節點加入至叢集的節點認證清單中。


    # scconf -a -T node=nodename
    
    -a

    新增

    -T

    設定認證選項

    node=nodename

    指定要加入認證清單中的節點名稱。

    另外,您可以使用 scsetup(1M) 公用程式。請參閱 Sun Cluster 3.0 12/01 系統管理手冊 中的「如何將叢集節點新增至已獲授權的節點清單」,以取得詳細操作程序。

  4. 成為要移除的節點上的超級使用者。

  5. 將節點重新開機,進入非叢集模式。


    # shutdown -g0 -y -i0
    ok boot -x
    

  6. /etc/vfstab 檔案中,除了 /global/.devices 全域裝載之外,移除所有全域裝載的檔案系統項目。

  7. 從節點移除 Sun Cluster 軟體。


    # cd /
    # scinstall -r
    

    請參閱 scinstall(1M) 線上援助頁,以取得詳細資訊。如果 scinstall 傳回錯誤訊息,請參閱 "節點移除的疑難排解"

  8. 若有傳輸電纜與傳輸接點,請從其他的叢集裝置上將它們斷線。

    1. 如果移除的節點連接到使用平行 SCSI 介面的儲存裝置,那麼在您中斷傳輸電纜之後,請在儲存裝置的開放式 SCSI 連接器上安裝 SCSI 終止器。

      如果移除的節點連接到使用「光纖通道」介面的儲存裝置,則不需要終止器。

    2. 關於斷線的程序,請遵循您的主機配接卡和伺服器所附的說明文件。

節點移除的疑難排解

本節說明當您執行 scinstall -r 指令時,可能接收到的錯誤訊息,以及應採取的更正動作。

未移除的叢集檔案系統項目

下列錯誤訊息表示您所移除的節點在它的 vfstab 檔中仍然擁有參照的叢集檔案系統。


Verifying that no unexpected global mounts remain in /etc/vfstab ... failed
scinstall:global-mount1 is still configured as a global mount.
scinstall:global-mount1 is still configured as a global mount.
scinstall:/global/dg1 is still configured as a global mount.
 
scinstall:It is not safe to uninstall with these outstanding errors.
scinstall:Refer to the documentation for complete uninstall instructions.
scinstall:Uninstall failed.

要更正此項錯誤,請回到 "如何從叢集節點移除 Sun Cluster 軟體 (5/02)" 並重複此程序。在您重新執行 scinstall -r 指令之前,請確定您成功地完成程序中的 步驟 6

磁碟裝置群組中的未移除清單

下列錯誤訊息表示您所移除的節點仍然列在磁碟裝置群組裡。


Verifying that no device services still reference this node ... failed
scinstall:This node is still configured to host device service "service".
scinstall:This node is still configured to host device service "service2".
scinstall:This node is still configured to host device service "service3".
scinstall:This node is still configured to host device service "dg1".
 
scinstall:It is not safe to uninstall with these outstanding errors.
scinstall:Refer to the documentation for complete uninstall instructions.
scinstall:Uninstall failed.

欲更正此項錯誤,請執行下列步驟。

  1. 嘗試將節點重新加入叢集。


    # boot
    

  2. 節點是否成功地重新加入叢集?

    • 如果不是,請進到 步驟 3

    • 如果是,請依照下列步驟從磁碟裝置群組移除節點。

    1. 如果節點成功地重新加入叢集,請從剩下的磁碟裝置群組中移除節點。

      遵循 "如何從所有磁碟裝置群組 (5/02) 移除節點" 中的程序。

    2. 在您從所有磁碟裝置群組中移除節點之後,請回到 "如何從叢集節點移除 Sun Cluster 軟體 (5/02)" 並重複此項程序。

  3. 如果節點無法重新加入叢集,請將節點的 /etc/cluster/ccr 檔重新命名為您所選的其他名稱,例如,ccr.old


    # mv /etc/cluster/ccr /etc/cluster/ccr.old
    

  4. 請回到 "如何從叢集節點移除 Sun Cluster 軟體 (5/02)" 並重複此項程序。