下述資訊適用於本更新版次以及所有後續的更新版次。
在 Sun Cluster 3.0 5/02 更新版次中,已於本節加入了下列兩個項目,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。
VxVM 不支援 chmod 指令。若要變更 VxVM 中的整體裝置許可權,請參閱 VxVM 管理手冊。
Sun Cluster 3.0 軟體不支援從相同的節點管理多重路徑的 VxVM 動態多重路徑 (Dynamic Multipathing,DMP) 功能。
使用此程序從所有在其潛在主要節點清單中列出節點的磁碟裝置群組,移除一個叢集節點。
在所有磁碟裝置群組中您要移除的潛在主要節點上成為超級使用者。
決定要移除其受到容體管理控制的成員節點的磁碟裝置群組。
在裝置群組節點清單中尋找每一個磁碟裝置群組的節點名稱。
# scconf -p | grep ¨Device group¨ |
是否有任何在 步驟 2 找到的磁碟裝置群組屬於 SDS 裝置群組類型?
如果有的話,請執行 "如何從磁碟裝置群組 (Solstice DiskSuite) 移除節點 (5/02)" 中的程序。
如果不是,請至 步驟 4。
是否有任何在 步驟 2 找到的磁碟裝置群組屬於 VxVM 裝置群組類型?
如果有的話,請執行 "如何從磁碟裝置群組 (VERITAS Volume Manager) 移除節點 (5/02)" 中的程序。
如果不是,請至 步驟 5。
決定要移除其成員節點的原始磁碟裝置群組。
請注意,下列指令包含了兩個 "v",-pvv。要顯示原始磁碟裝置群組需要第二個 "v"。
# scconf -pvv | grep ¨Device group¨ |
是否有任何列在 步驟 5 中的磁碟裝置群組屬於 Disk 或 Local_Disk ,或同時屬於這兩種裝置群組類型?
如果有的話,請執行 "如何從原始磁碟裝置群組移除節點 (5/02)" 中的程序。
如果不是,請至 步驟 7。
確認節點已從所有磁碟裝置群組的潛在主要節點中移除。
如果節點不再列為任何磁碟裝置群組的潛在主要節點,則此項指令不會傳回任何訊息。
# scconf -pvv | grep ¨Device group¨ | grep nodename |
使用此程序從 Solstice DiskSuite 磁碟裝置群組的潛在主要節點清單中,移除一個叢集節點。節點同時可屬於一個以上的磁碟裝置群組,因此請為每個您要移除節點的磁碟裝置群組,重複 metaset 指令。
決定要移除其成員節點的 Solstice DiskSuite 磁碟裝置群組。
SDS 裝置群組類型表示一個 Solstice DiskSuite 磁碟裝置群組。
# scconf -p | grep Device |
在目前擁有您要修改之磁碟裝置群組的節點上成為超級使用者。
從磁碟裝置群組移除節點的主機名稱。
# metaset -s setname -d -h nodelist |
指定磁碟裝置群組名稱
從磁碟裝置群組移除含有 -h 的節點。
從可主控磁碟裝置群組的節點清單中移除該節點
更新可能需要數分鐘才能夠完成。
如果指令失敗,則將 -f ([強制]) 選項加入指令中。
# metaset -s setname -d -f -h nodelist |
請為其所要移除節點為潛在主要節點的每一個磁碟裝置群組重複 步驟 3。
確認節點已從磁碟裝置群組中移除。
磁碟裝置群組名稱會與 metaset 指定的磁碟組名稱一致。
# scstat -D |
下列範例顯示如何從磁碟裝置群組配置移除主機名稱 phys-schost-2 。這會刪除成為指定磁碟裝置群組中潛在主要節點的 phys-schost-2 。藉由執行 scstat -D 指令確認節點是否移除,並檢查已移除的節點是否不再顯示於螢幕文字內。
[Determine the Solstice DiskSuite disk device group(2) for the node:} # scconf -p | grep Device Device group name: dg-schost-1 Device group type: SDS Device group failback enabled: no Device group node list: phys-schost-1, phys-schost-2 Device group ordered node list: yes Device group diskset name: dg-schost-1 [Determine the disk device group(s) for the node:] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 phys-schost-2 [Become superuser.] [Remove the hostname from all disk device groups:] # metaset -s dg-schost-1 -d -h phys-schost-2 [Verify removal of the node:] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 - |
使用此程序從 VERITAS Volume Manager (VxVM) 磁碟裝置群組的潛在主要節點清單,移除一個叢集節點。
決定要移除其成員節點的 VxVM 磁碟裝置群組。
VxVM 裝置群組類型表示
# scconf -p | grep Device |
成為現行叢集成員節點的超級使用者。
執行 scsetup 公用程式。
# scsetup |
顯示 Main Menu。
若要重新配置磁碟裝置群組,請輸入 4 (裝置群組與容體)。
要從 VxVM 磁碟裝置群組移除節點,請輸入 5 (從 VxVM 裝置群組移除節點)。
依提示從磁碟裝置群組移除叢集節點。 系統將詢問您以下項目的相關資訊:
VxVM 裝置群組
節點名稱
確認節點已從 VxVM 磁碟裝置群組中移除。
# scconf -p | grep Device |
這個範例顯示從 dg1 VxVM 磁碟裝置群組移除名為 phys-schost-1 的節點。
[Determine the VxVM disk device group for the node:] # scconf -p | grep Device Device group name: dg1 Device group type: VxVM Device group failback enabled: no Device group node list: phys-schost-1, phys-schost-2 Device group diskset name: dg1 [Become superuser and execute the scsetup utility:] # scsetup Select Device groups and volumes>Remove a node from a VxVM device group. Answer the questions when prompted. You will need the following information. You Will Need: Example: VxVM device group name dg1 node names phys-schost-1 [Verify that the scconf command executed properly:] scconf -r -D name=dg1,nodelist=phys-schost-1 Command completed successfully. Quit the scsetup Device Groups Menu and Main Menu. [Verify that the node was removed:] # scconf -p | grep Device Device group name: dg1 Device group type: VxVM Device group failback enabled: no Device group node list: phys-schost-2 Device group diskset name: dg1 |
使用此程序從原始磁碟裝置群組的潛在主要節點清單中,移除一個叢集節點。
在不同於要移除的節點叢集中的一個節點上成為超級使用者。
找到與已移除節點連結的磁碟裝置群組。
在裝置群組節點清單項目中尋找節點名稱。
# scconf -pvv | grep nodename | grep |
決定哪些在 步驟 2 找到的磁碟裝置群組為原始磁碟裝置群組。
原始磁碟裝置群組屬於 Disk 或 Local_Disk 裝置群組類型。
# scconf -pvv | grep ¨group type¨ |
停用每一個 Local_Disk 原始磁碟裝置群組的 localonly 屬性。
# scconf -c -D name=rawdisk-device-group,localonly=false |
關於 localonly 的詳細資訊,請參閱 scconf_dg_rawdisk(1M) 線上援助頁。
確認您已停用所有連結到已移除節點的原始磁碟裝置群組的 localonly 屬性。
Disk 裝置群組勒種類表示關閉原始磁碟裝置群組的 localonly 屬性。
# scconf -pvv | grep ¨group type¨ |
從所有在 步驟 2 中找到的原始磁碟裝置群組移除節點。
你必須針對連結至已移除節點的每一個原始磁碟裝置群組完成這個步驟。
# scconf -r -D name=rawdisk-device-group,nodelist=nodename |
這個範例顯示如何從原始磁碟裝置群組移除節點 (phys-schost-2)。所有指令是從叢集的另一個節點執行 (phys-schost-1)。
[Identify the disk device groups connected to the node being removed:] phys-schost-1# scconf -pvv | grep phys-schost-2 | grep ¨Device group node list¨ (dsk/d4) Device group node list: phys-schost-2 (dsk/d2) Device group node list:phys-schost-1, phys-schost-2 (dsk/d1) Device group node list:phys-schost-1, phys-schost-2 [Identify the are raw disk device groups:] phys-schost-1# scconf -pvv | grep ¨group type¨ (dsk/d4) Device group type: Local_Disk (dsk/d8) Device group type:Local_Disk [Disable the localonly flag for each local disk on the node:] phys-schost-1# scconf -c -D name=dsk/d4,localonly=false [Verify that the localonly flag is disabled:] phys-schost-1# scconf -pvv | grep ¨group type¨ (dsk/d4) Device group type: Disk (dsk/d8) Device group type:Local_Disk [Remove the node from all raw disk device groups:] phys-schost-1# scconf -r -D name=dsk/d4,nodelist=phys-schost-2 phys-schost-1# scconf -r -D name=dsk/d2,nodelist=phys-schost-2 phys-schost-1# scconf -r -D name=dsk/d1,nodelist=phys-schost-2 |
下列程序已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。
如果您想在叢集中建立三個以上的磁碟組,請在建立磁碟組之前執行下列步驟。不管您是否第一次安裝磁碟組,或您是否正要新增更多磁碟組到已完全配置的叢集,都請依照下列步驟進行:
確定 md_nsets 變數值設定得夠高,以符合您要在叢集中建立的磁碟組總數。
在叢集的任何節點上,檢查 md_nsets 變數值,該變數值位於 /kernel/drv/md.conf 檔中。
如果叢集中的磁碟組總數大於現有的 md_nsets 負值,請增加每個節點的 md_nsets 值,使其達到所需的值。
許可的最大磁碟組數目小於 md_nsets 值。 md_nsets 的最大值為 32。
確定 /kernel/drv/md.conf 檔在叢集的每個節點上都相同。
未遵循此準則會導致嚴重的 Solstice DiskSuite 錯誤和可能的資料流失。
在某一個節點上關閉叢集。
# scshutdown -g0 -y |
重新啟動叢集的每個節點。
ok> boot |
在叢集的每個節點上執行 devfsadm(1M) 指令。
您可以在叢集的所有節點上同時執行此指令。
從叢集的某個節點執行 scgdevs(1M) 指令。
在每個節點上,確認在您試圖建立任何磁碟組之前, scgdevs 指令便已完成。
scgdevs 指令在所有節點上自行遠端呼叫,即使只從一個節點執行指令也是如此。若要判斷 scgdevs 指令是否已經完成作業,請在叢集的每個節點上執行下列指令。
% ps -ef | grep scgdevs |