本章提供新加入 Sun Cluster 3.0 5/02 更新版次中的系統管理資訊。 此項資訊為 Sun Cluster 3.0 12/01 系統管理手冊 的增補。
本章包含下列主題的新資訊。
下述資訊適用於本更新版次以及所有後續的更新版次。
在 Sun Cluster 3.0 5/02 更新版次中,已於本節加入了下列兩個項目,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。
VxVM 不支援 chmod 指令。若要變更 VxVM 中的整體裝置許可權,請參閱 VxVM 管理手冊。
Sun Cluster 3.0 軟體不支援從相同的節點管理多重路徑的 VxVM 動態多重路徑 (Dynamic Multipathing,DMP) 功能。
使用此程序從所有在其潛在主要節點清單中列出節點的磁碟裝置群組,移除一個叢集節點。
在所有磁碟裝置群組中您要移除的潛在主要節點上成為超級使用者。
決定要移除其受到容體管理控制的成員節點的磁碟裝置群組。
在裝置群組節點清單中尋找每一個磁碟裝置群組的節點名稱。
# scconf -p | grep ¨Device group¨ |
是否有任何在 步驟 2 找到的磁碟裝置群組屬於 SDS 裝置群組類型?
如果有的話,請執行 "如何從磁碟裝置群組 (Solstice DiskSuite) 移除節點 (5/02)" 中的程序。
如果不是,請至 步驟 4。
是否有任何在 步驟 2 找到的磁碟裝置群組屬於 VxVM 裝置群組類型?
如果有的話,請執行 "如何從磁碟裝置群組 (VERITAS Volume Manager) 移除節點 (5/02)" 中的程序。
如果不是,請至 步驟 5。
決定要移除其成員節點的原始磁碟裝置群組。
請注意,下列指令包含了兩個 "v",-pvv。要顯示原始磁碟裝置群組需要第二個 "v"。
# scconf -pvv | grep ¨Device group¨ |
是否有任何列在 步驟 5 中的磁碟裝置群組屬於 Disk 或 Local_Disk ,或同時屬於這兩種裝置群組類型?
如果有的話,請執行 "如何從原始磁碟裝置群組移除節點 (5/02)" 中的程序。
如果不是,請至 步驟 7。
確認節點已從所有磁碟裝置群組的潛在主要節點中移除。
如果節點不再列為任何磁碟裝置群組的潛在主要節點,則此項指令不會傳回任何訊息。
# scconf -pvv | grep ¨Device group¨ | grep nodename |
使用此程序從 Solstice DiskSuite 磁碟裝置群組的潛在主要節點清單中,移除一個叢集節點。節點同時可屬於一個以上的磁碟裝置群組,因此請為每個您要移除節點的磁碟裝置群組,重複 metaset 指令。
決定要移除其成員節點的 Solstice DiskSuite 磁碟裝置群組。
SDS 裝置群組類型表示一個 Solstice DiskSuite 磁碟裝置群組。
# scconf -p | grep Device |
在目前擁有您要修改之磁碟裝置群組的節點上成為超級使用者。
從磁碟裝置群組移除節點的主機名稱。
# metaset -s setname -d -h nodelist |
指定磁碟裝置群組名稱
從磁碟裝置群組移除含有 -h 的節點。
從可主控磁碟裝置群組的節點清單中移除該節點
更新可能需要數分鐘才能夠完成。
如果指令失敗,則將 -f ([強制]) 選項加入指令中。
# metaset -s setname -d -f -h nodelist |
請為其所要移除節點為潛在主要節點的每一個磁碟裝置群組重複 步驟 3。
確認節點已從磁碟裝置群組中移除。
磁碟裝置群組名稱會與 metaset 指定的磁碟組名稱一致。
# scstat -D |
下列範例顯示如何從磁碟裝置群組配置移除主機名稱 phys-schost-2 。這會刪除成為指定磁碟裝置群組中潛在主要節點的 phys-schost-2 。藉由執行 scstat -D 指令確認節點是否移除,並檢查已移除的節點是否不再顯示於螢幕文字內。
[Determine the Solstice DiskSuite disk device group(2) for the node:} # scconf -p | grep Device Device group name: dg-schost-1 Device group type: SDS Device group failback enabled: no Device group node list: phys-schost-1, phys-schost-2 Device group ordered node list: yes Device group diskset name: dg-schost-1 [Determine the disk device group(s) for the node:] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 phys-schost-2 [Become superuser.] [Remove the hostname from all disk device groups:] # metaset -s dg-schost-1 -d -h phys-schost-2 [Verify removal of the node:] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 - |
使用此程序從 VERITAS Volume Manager (VxVM) 磁碟裝置群組的潛在主要節點清單,移除一個叢集節點。
決定要移除其成員節點的 VxVM 磁碟裝置群組。
VxVM 裝置群組類型表示
# scconf -p | grep Device |
成為現行叢集成員節點的超級使用者。
執行 scsetup 公用程式。
# scsetup |
顯示 Main Menu。
若要重新配置磁碟裝置群組,請輸入 4 (裝置群組與容體)。
要從 VxVM 磁碟裝置群組移除節點,請輸入 5 (從 VxVM 裝置群組移除節點)。
依提示從磁碟裝置群組移除叢集節點。 系統將詢問您以下項目的相關資訊:
VxVM 裝置群組
節點名稱
確認節點已從 VxVM 磁碟裝置群組中移除。
# scconf -p | grep Device |
這個範例顯示從 dg1 VxVM 磁碟裝置群組移除名為 phys-schost-1 的節點。
[Determine the VxVM disk device group for the node:] # scconf -p | grep Device Device group name: dg1 Device group type: VxVM Device group failback enabled: no Device group node list: phys-schost-1, phys-schost-2 Device group diskset name: dg1 [Become superuser and execute the scsetup utility:] # scsetup Select Device groups and volumes>Remove a node from a VxVM device group. Answer the questions when prompted. You will need the following information. You Will Need: Example: VxVM device group name dg1 node names phys-schost-1 [Verify that the scconf command executed properly:] scconf -r -D name=dg1,nodelist=phys-schost-1 Command completed successfully. Quit the scsetup Device Groups Menu and Main Menu. [Verify that the node was removed:] # scconf -p | grep Device Device group name: dg1 Device group type: VxVM Device group failback enabled: no Device group node list: phys-schost-2 Device group diskset name: dg1 |
使用此程序從原始磁碟裝置群組的潛在主要節點清單中,移除一個叢集節點。
在不同於要移除的節點叢集中的一個節點上成為超級使用者。
找到與已移除節點連結的磁碟裝置群組。
在裝置群組節點清單項目中尋找節點名稱。
# scconf -pvv | grep nodename | grep |
決定哪些在 步驟 2 找到的磁碟裝置群組為原始磁碟裝置群組。
原始磁碟裝置群組屬於 Disk 或 Local_Disk 裝置群組類型。
# scconf -pvv | grep ¨group type¨ |
停用每一個 Local_Disk 原始磁碟裝置群組的 localonly 屬性。
# scconf -c -D name=rawdisk-device-group,localonly=false |
關於 localonly 的詳細資訊,請參閱 scconf_dg_rawdisk(1M) 線上援助頁。
確認您已停用所有連結到已移除節點的原始磁碟裝置群組的 localonly 屬性。
Disk 裝置群組勒種類表示關閉原始磁碟裝置群組的 localonly 屬性。
# scconf -pvv | grep ¨group type¨ |
從所有在 步驟 2 中找到的原始磁碟裝置群組移除節點。
你必須針對連結至已移除節點的每一個原始磁碟裝置群組完成這個步驟。
# scconf -r -D name=rawdisk-device-group,nodelist=nodename |
這個範例顯示如何從原始磁碟裝置群組移除節點 (phys-schost-2)。所有指令是從叢集的另一個節點執行 (phys-schost-1)。
[Identify the disk device groups connected to the node being removed:] phys-schost-1# scconf -pvv | grep phys-schost-2 | grep ¨Device group node list¨ (dsk/d4) Device group node list: phys-schost-2 (dsk/d2) Device group node list:phys-schost-1, phys-schost-2 (dsk/d1) Device group node list:phys-schost-1, phys-schost-2 [Identify the are raw disk device groups:] phys-schost-1# scconf -pvv | grep ¨group type¨ (dsk/d4) Device group type: Local_Disk (dsk/d8) Device group type:Local_Disk [Disable the localonly flag for each local disk on the node:] phys-schost-1# scconf -c -D name=dsk/d4,localonly=false [Verify that the localonly flag is disabled:] phys-schost-1# scconf -pvv | grep ¨group type¨ (dsk/d4) Device group type: Disk (dsk/d8) Device group type:Local_Disk [Remove the node from all raw disk device groups:] phys-schost-1# scconf -r -D name=dsk/d4,nodelist=phys-schost-2 phys-schost-1# scconf -r -D name=dsk/d2,nodelist=phys-schost-2 phys-schost-1# scconf -r -D name=dsk/d1,nodelist=phys-schost-2 |
下列程序已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。
如果您想在叢集中建立三個以上的磁碟組,請在建立磁碟組之前執行下列步驟。不管您是否第一次安裝磁碟組,或您是否正要新增更多磁碟組到已完全配置的叢集,都請依照下列步驟進行:
確定 md_nsets 變數值設定得夠高,以符合您要在叢集中建立的磁碟組總數。
在叢集的任何節點上,檢查 md_nsets 變數值,該變數值位於 /kernel/drv/md.conf 檔中。
如果叢集中的磁碟組總數大於現有的 md_nsets 負值,請增加每個節點的 md_nsets 值,使其達到所需的值。
許可的最大磁碟組數目小於 md_nsets 值。 md_nsets 的最大值為 32。
確定 /kernel/drv/md.conf 檔在叢集的每個節點上都相同。
未遵循此準則會導致嚴重的 Solstice DiskSuite 錯誤和可能的資料流失。
在某一個節點上關閉叢集。
# scshutdown -g0 -y |
重新啟動叢集的每個節點。
ok> boot |
在叢集的每個節點上執行 devfsadm(1M) 指令。
您可以在叢集的所有節點上同時執行此指令。
從叢集的某個節點執行 scgdevs(1M) 指令。
在每個節點上,確認在您試圖建立任何磁碟組之前, scgdevs 指令便已完成。
scgdevs 指令在所有節點上自行遠端呼叫,即使只從一個節點執行指令也是如此。若要判斷 scgdevs 指令是否已經完成作業,請在叢集的每個節點上執行下列指令。
% ps -ef | grep scgdevs |
下述資訊適用於本更新版次以及所有後續的更新版次。
下列資訊已在 Sun Cluster 3.0 12/01 更新版次中介紹過,且適用於 Sun Cluster 3.0 軟體的該版次以及所有後續的更新版次。
下列 VxFS 特性在 Sun Cluster 3.0 配置中不受支援。
快速 I/O
快照
儲存核對點
快取建議 (可以使用,但是只有在指定的節點中才能看出效果)
VERITAS CFS (需要 VERITAS 叢集功能 & VCS)
VxFS - 特定的裝載選項
convosync (Convert O_SYNC)
mincache
qlog, delaylog, tmplog
叢集配置中支援的所有其他 VxFS 特性和選項,Sun Cluster 3.0 軟體也都支援。關於在叢集配置中支援和不支援的 VxFS 選項的詳細資料,請參閱 VxFS 說明文件和線上援助頁。
下列關於如何使用 VxFS 建立高可用性叢集檔案系統的準則,是針對 Sun Cluster 3.0 配置而言。
依照 VxFS 文件中的下列程序,來建立 VxFS 檔案系統。
從主要節點 (即主控 VxFS 檔案系統所在的節點) 進行全域裝載和卸載 VxFS 檔案系統,以確保作業成功。若由次要節點執行 VxFS 檔案系統裝載和卸載作業可能會失敗。
從 VxFS 叢集檔案系統的主要節點執行所有的 VxFS 管理指令。
下列有關如何管理 VxFS 叢集檔案系統的準則,並非針對 Sun Cluster 3.0 軟體。不過,這和您管理 UFS 叢集檔案系統的方法不同。
您可以從叢集中的任何節點存取和管理 VxFS 叢集檔案系統上的任何檔案,不過 ioctl 例外,只能從主要節點發出。如果您不知道管理指令是否涉及 ioctl,則請從主要節點發出指令。
如果 VxFS 叢集檔案系統因故障而轉移到次要節點,所有在故障轉移中進行的標準系統呼叫作業會在新的主要節點上重新發出。不過,任何在故障轉移中進行的 ioctl 相關作業將會失敗。在 VxFS 叢集檔案系統故障轉移之後,請檢查叢集檔案系統的狀態。故障轉移之前,由舊的主要節點發出的管理指令可能需要採取修正措施。請參閱 VxFS 文件,以取得詳細資訊。
在 Sun Cluster 3.0 5/02 更新版次中,這項程序的步驟 2 新增了下列注意事項,且適用於此更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。
newfs(1M) 指令只有在建立新的 UFS 檔案系統時才有效。要建立新的 VxFS 檔案系統,請遵循 VxFS 說明文件中所列的程序。
下述資訊適用於本更新版次以及所有後續的更新版次。
下列對應作業在 Sun Cluster 3.0 5/02 更新版次中已經更改過,且適用於此更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。此對應作業中未提供的參照程序位於 Sun Cluster 3.0 12/01 系統管理手冊。
表 6-1 對應作業:Removing a Cluster Node (5/02)
下列程序已在 Sun Cluster 3.0 5/02 更新版次中更改過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。
從原始磁碟裝置群組移除節點的步驟已移除。這些指示現在位於新的程序 "如何從原始磁碟裝置群組移除節點 (5/02)" 中。
從叢集移除節點之後,您現在可以選擇從已移除的節點上移除 Sun Cluster 軟體。若要移除 Sun Cluster 軟體,請至 "如何從叢集節點移除 Sun Cluster 軟體 (5/02)"。
下列程序已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。
在您從完全建立的叢集配置將叢集節點斷線之前,請執行此程序以從叢集節點移除 Sun Cluster 軟體。您可以利用此程序從叢集最後存留的節點上移除軟體。
若要從尚未加入叢集或仍然處於安裝模式的節點上移除 Sun Cluster 軟體,則請勿執行此程序。請另外到 Sun Cluster 3.0 12/01 軟體安裝手冊 中的「如何移除 Sun Cluster 軟體以修正安裝問題」。
請確定您已正確完成移除叢集節點的對應作業中所列的所有必備作業。
請參閱 Sun Cluster 3.0 12/01 系統管理手冊 中的「新增與移除叢集節點」。
請確定在繼續這個程序前,您已從所有資源群組、裝置群組以及法定裝置配置移除節點、讓它進入維護狀態,並從叢集將它移除。
在您將移除的節點之外的主動叢集成員上成為超級使用者。
從主動的叢集成員上,將您想要移除的節點加入至叢集的節點認證清單中。
# scconf -a -T node=nodename |
新增
設定認證選項
指定要加入認證清單中的節點名稱。
另外,您可以使用 scsetup(1M) 公用程式。請參閱 Sun Cluster 3.0 12/01 系統管理手冊 中的「如何將叢集節點新增至已獲授權的節點清單」,以取得詳細操作程序。
成為要移除的節點上的超級使用者。
將節點重新開機,進入非叢集模式。
# shutdown -g0 -y -i0 ok boot -x |
在 /etc/vfstab 檔案中,除了 /global/.devices 全域裝載之外,移除所有全域裝載的檔案系統項目。
從節點移除 Sun Cluster 軟體。
# cd / # scinstall -r |
請參閱 scinstall(1M) 線上援助頁,以取得詳細資訊。如果 scinstall 傳回錯誤訊息,請參閱 "節點移除的疑難排解"。
若有傳輸電纜與傳輸接點,請從其他的叢集裝置上將它們斷線。
本節說明當您執行 scinstall -r 指令時,可能接收到的錯誤訊息,以及應採取的更正動作。
下列錯誤訊息表示您所移除的節點在它的 vfstab 檔中仍然擁有參照的叢集檔案系統。
Verifying that no unexpected global mounts remain in /etc/vfstab ... failed scinstall:global-mount1 is still configured as a global mount. scinstall:global-mount1 is still configured as a global mount. scinstall:/global/dg1 is still configured as a global mount. scinstall:It is not safe to uninstall with these outstanding errors. scinstall:Refer to the documentation for complete uninstall instructions. scinstall:Uninstall failed. |
要更正此項錯誤,請回到 "如何從叢集節點移除 Sun Cluster 軟體 (5/02)" 並重複此程序。在您重新執行 scinstall -r 指令之前,請確定您成功地完成程序中的 步驟 6。
下列錯誤訊息表示您所移除的節點仍然列在磁碟裝置群組裡。
Verifying that no device services still reference this node ... failed scinstall:This node is still configured to host device service "service". scinstall:This node is still configured to host device service "service2". scinstall:This node is still configured to host device service "service3". scinstall:This node is still configured to host device service "dg1". scinstall:It is not safe to uninstall with these outstanding errors. scinstall:Refer to the documentation for complete uninstall instructions. scinstall:Uninstall failed. |
欲更正此項錯誤,請執行下列步驟。
嘗試將節點重新加入叢集。
# boot |
節點是否成功地重新加入叢集?
如果不是,請進到 步驟 3。
如果是,請依照下列步驟從磁碟裝置群組移除節點。
如果節點成功地重新加入叢集,請從剩下的磁碟裝置群組中移除節點。
遵循 "如何從所有磁碟裝置群組 (5/02) 移除節點" 中的程序。
在您從所有磁碟裝置群組中移除節點之後,請回到 "如何從叢集節點移除 Sun Cluster 軟體 (5/02)" 並重複此項程序。
如果節點無法重新加入叢集,請將節點的 /etc/cluster/ccr 檔重新命名為您所選的其他名稱,例如,ccr.old。
# mv /etc/cluster/ccr /etc/cluster/ccr.old |
請回到 "如何從叢集節點移除 Sun Cluster 軟體 (5/02)" 並重複此項程序。