scsetup(1M) 公用程式是 scconf(1M) 指令的互動式介面。scsetup 會產生 scconf 指令。產生的指令會在部分程序範例的尾端顯示。
Sun Cluster 軟體會自動為叢集中的每一個磁碟及磁帶裝置建立原始磁碟裝置群組。不過叢集裝置群組仍會保持離線狀態,除非您將群組作為全域裝置來存取。
作業 |
如需相關說明,請參閱 … |
---|---|
更新整體裝置名稱空間 (不含重新配置的重新啟動) - 使用 scgdevs(1M) | |
增加 Solstice DiskSuite/Solaris Volume Manager 磁碟組,並將其註冊為磁碟裝置群組 - 使用 metaset(1M) | |
從配置中移除 Solstice DiskSuite/Solaris Volume Manager 磁碟裝置群組 - 使用 metaset 和 metaclear(1M) | |
從所有磁碟裝置群組移除節點 - 使用 scconf、metaset 和 scsetup | |
從 Solstice DiskSuite/Solaris Volume Manager 磁碟裝置群組移除節點 - 使用 metaset | |
SPARC:將 VERITAS Volume Manager 磁碟群組新增為磁碟裝置群組 - 使用 VxVM 指令和 scsetup(1M) |
SPARC: 如何在起始磁碟時建立新的磁碟群組 (VERITAS Volume Manager)
SPARC: 如何在封裝磁碟時建立新的磁碟群組 (VERITAS Volume Manager)
SPARC: 如何新增新的容體至現有的磁碟裝置群組 (VERITAS Volume Manager)
SPARC: 如何將現有的磁碟群組加入磁碟裝置群組 (VERITAS Volume Manager)
SPARC: 如何指定磁碟裝置群組的新次要編號 (VERITAS Volume Manager)
SPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)
|
SPARC:從配置中移除 VERITAS Volume Manager 磁碟裝置群組 - 使用 scsetup (以產生 scconf) |
SPARC: 如何從磁碟裝置群組移除容體 (VERITAS Volume Manager)
|
SPARC:新增節點至 VERITAS Volume Manager 磁碟裝置群組 - 使用 scsetup 以產生 scconf | |
SPARC:從 VERITAS Volume Manager 磁碟裝置群組移除節點 - 使用 scsetup 以產生 scconf | |
從原始磁碟裝置群組移除節點 - 使用 scconf(1M) | |
變更磁碟裝置群組特性 - 使用 scsetup 以產生 scconf | |
顯示磁碟裝置群組與特性 - 使用 scconf | |
變更裝置群組的所需次要節點數目 - 使用 scsetup 以產生 scconf | |
切換磁碟裝置群組的主要節點 - 使用 scswitch(1M) | |
使磁碟裝置群組進入維護狀態 - 使用 metaset 或 vxdg |
增加新的全域裝置時,請透過執行 scgdevs(1M),手動更新全域裝置名稱空間。
如果執行指令的節點目前不是叢集成員,那麼 scgdevs 指令便不會有任何效果。如果未裝載 /global/.devices/node@ nodeID 檔案系統,則指令同樣不會有效果。
以下範例顯示執行 scgdevs 成時產生的輸出。
# scgdevs Configuring the /dev/global directory (global devices)... obtaining access to all attached disks reservation program successfully exiting |
使用metaset 指令建立 Solstice DiskSuite/Solaris Volume Manager 磁碟組並將其註冊為 Sun Cluster 磁碟裝置群組。註冊磁碟組時,您指定給磁碟組的名稱會自動指定給磁碟裝置群組。
在連接您要建立磁碟組之磁碟的節點上成為超級使用者。
計算配置所需的 Solstice DiskSuite 中介裝置或 Solaris Volume Manager 容體的名稱數,並在每個節點上修改 /kernel/drv/md.conf 檔案。
請參閱「Sun Cluster 軟體安裝指南(適用於 Solaris 作業系統)」中的「如何設定中介裝置或容體名稱和磁碟組的數目」。
使用 metaset(1M) 指令增加 Solstice DiskSuite/Solaris Volume Manager 磁碟組,並將其註冊為具備 Sun Cluster 的磁碟裝置群組。若要建立多所有者磁碟群組,請使用 –M 選項。
# metaset -s diskset -a -M -h nodelist |
指定要建立的磁碟組。
增加可控制磁碟組的節點清單。
指定磁碟群組為多擁有者。
在叢集上執行 metaset 指令來建立「Solstice DiskSuite/Solaris Volume Manager」裝置群組,根據預設將會產生一個次要節點,不論該裝置群組中所含的節點數目為何。您可以在建立裝置群組後使用 scsetup(1M) 公用程式變更所需的次要節點數目。請參閱如何變更裝置群組所要的次要節點數目,以取得更多有關磁碟防故障備用的資訊。
確認磁碟裝置群組是否新增成功。
磁碟裝置群組名稱會與使用 metaset 指定的磁碟組名稱匹配。
# scconf -p | grep disk-device-group |
以下範例顯示了磁碟組與磁碟裝置群組的建立,並確認磁碟裝置群組已經建立。
# metaset -s dg-schost-1 -a -h phys-schost-1 # scconf -p | grep dg-schost-1 Device group name: dg-schost-1 |
磁碟裝置群組是已透過 Sun Cluster 註冊的 Solstice DiskSuite/Solaris Volume Manager 磁碟組。若要移除 Solstice DiskSuite/Solaris Volume Manager 磁碟裝置群組,請使用 metaclear 和 metaset 指令。這些指令會移除相同名稱的磁碟裝置群組,並註銷其 Sun Cluster 磁碟裝置群組的身份。
請參閱 Solstice DiskSuite/Solaris Volume Manager 說明文件,以取得移除磁碟組的步驟。
使用此程序移除所有磁碟裝置群組 (該群組列出了潛在主要節點清單中的節點) 中的叢集節點。
在所有磁碟裝置群組中您要移除的潛在主要節點上成為超級使用者。
判斷要移除其節點的磁碟裝置群組是否為成員。
在裝置群組節點清單中尋找每一個磁碟裝置群組的節點名稱。
# scconf -p | grep "Device group" |
步驟 2 中識別出的磁碟裝置群組中是否有裝置群組類型為 SDS/SVM 的群組?
如果有,請執行如何從磁碟裝置群組移除節點 (Solstice DiskSuite/Solaris Volume Manager)中的程序。
如果沒有,請移至步驟 4。
步驟 2 中識別出的磁碟裝置群組中是否有裝置群組類型為 VxVM 的群組?
如果有,請執行SPARC: 如何從磁碟裝置群組移除節點 (VERITAS Volume Manager)中的程序。
如果沒有,請移至步驟 5。
決定要移除其成員節點的原始磁碟裝置群組。
請注意,下列指令包含了兩個 “v”,-pvv。要顯示原始磁碟裝置群組需要第二個 “v”。
# scconf -pvv | grep "Device group" |
步驟 5 中列出的磁碟裝置群組中是否有裝置群組類型為 Disk、Local_Disk,或是這兩種類型的群組都有?
如果有,請執行SPARC: 如何從原始磁碟裝置群組移除節點中的程序。
如果沒有,請移至步驟 7。
確認節點已從所有磁碟裝置群組的潛在主要節點中移除。
如果節點不再列為任何磁碟裝置群組的潛在主要節點,則此項指令不會傳回任何訊息。
# scconf -pvv | grep "Device group" | grep nodename |
使用此程序從 Solstice DiskSuite/Solaris Volume Manager 磁碟裝置群組的潛在主要節點清單中,移除一個叢集節點。請為每一個您想要移除節點的磁碟裝置群組,重複執行 metaset 指令。
驗證該節點是否仍是磁碟裝置群組的成員,以及該磁碟裝置群組是否為 Solstice DiskSuite/Solaris Volume Manager 磁碟裝置群組。
SDS/SVM 裝置群組類型表示一個 Solstice DiskSuite/Solaris Volume Manager 磁碟裝置群組。
phys-schost-1% scconf -pv | grep '(global-galileo)' (global-galileo) Device group type: SDS/SVM (global-galileo) Device group failback enabled: no (global-galileo) Device group node list: phys-schost-1, phys-schost-2 (global-galileo) Diskset name: global-galileo phys-schost-1% |
判斷哪一個節點是裝置群組目前的主要節點。
# scstat -D |
在目前擁有您要修改之磁碟裝置群組的節點上成為超級使用者。
從磁碟裝置群組移除節點的主機名稱。
# metaset -s setname -d -h nodelist |
指定磁碟裝置群組名稱。
從磁碟裝置群組刪除由 -h 標識的節點。
從可控制磁碟裝置群組的節點清單中移除節點。
更新可能需要數分鐘才能夠完成。
如果指令失敗,則將 -f ([強制]) 選項加入指令中。
# metaset -s setname -d -f -h nodelist |
對要從其中將節點作為潛在主要節點移除的每個磁碟裝置群組重複執行步驟 4。
確認節點已從磁碟裝置群組中移除。
磁碟裝置群組名稱會與使用 metaset 指定的磁碟組名稱匹配。
phys-schost-1% scconf -pv | grep devicegroup Device group node list: phys-schost-1, phys-schost-2 |
下列範例顯示如何從磁碟裝置群組配置移除主機名稱 phys-schost-2 。這個範例刪除成為指定磁碟裝置群組中潛在主要節點的 phys-schost-2 。透過執行 scstat -D 指令驗證節點是否已移除。檢查移除的節點不再顯示於螢幕文字中。
[確定節點的 Solstice DiskSuite/Solaris Volume Manager 磁碟裝置群組(2):] # scconf -pv | grep Device Device group name: dg-schost-1 Device group type: SDS/SVM Device group failback enabled: no Device group node list: phys-schost-1, phys-schost-2 Device group ordered node list: yes Device group diskset name: dg-schost-1 [確定磁碟裝置群組目前的主要節點:] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 phys-schost-2 [在擁有該磁碟裝置群組的節點上以超級使用者身份登入。] [從該磁碟裝置群組中刪除主機名稱:] # metaset -s dg-schost-1 -d -h phys-schost-2 [驗證是否已移除節點:] phys-schost-1% scconf -pv | grep dg-schost-1 -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 |
如果您想在叢集中建立三個以上的磁碟組,請在建立磁碟組之前執行下列步驟。如果您是第一次安裝磁碟組,或是要增加更多磁碟組到已完全配置的叢集中,請遵循這些步驟進行。
確認 md_nsets 變數的值夠高。這個值應大於您想要在叢集中建立的磁碟組總數。
在叢集的任何節點上,檢查 md_nsets 變數值,該變數值位於 /kernel/drv/md.conf 檔中。
如果叢集中的磁碟組總數大於現有的 md_nsets 負值,請增加每個節點的 md_nsets 值。
可允許的最大磁碟組數目是 md_nsets 的值減一。md_nsets 的最大值為 32。
確定 /kernel/drv/md.conf 檔在叢集的每個節點上都相同。
未遵循此準則會導致嚴重的 Solstice DiskSuite/Solaris Volume Manager 錯誤和可能的資料遺失。
在某一個節點上關閉叢集。
# scshutdown -g0 -y |
重新啟動叢集中的每個節點。
SPARC:
ok boot |
x86:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@ 7,1/sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b |
在叢集中的每個節點上,執行 devfsadm(1M) 指令。
您可以在叢集的所有節點上同時執行此指令。
在叢集的一個節點上,執行 scgdevs(1M) 指令。
在每個節點上,確認在您嘗試建立任何磁碟組之前,scgdevs 指令已完成。
scgdevs 指令在所有節點上自行遠端呼叫,即使只從一個節點執行指令也是如此。若要判斷 scgdevs 指令是否已經完成作業,請在叢集的每個節點上執行下列指令。
% ps -ef | grep scgdevs |
這個程序只適用於起始磁碟。如果您要封裝磁碟,請使用SPARC: 如何在封裝磁碟時建立新的磁碟群組 (VERITAS Volume Manager)中的程序。
新增 VxVM 磁碟群組之後,您必須註冊磁碟裝置群組。
如果您使用 VxVM 來設定 Oracle Parallel Server 或 Oracle Real Application Clusters 的共用磁碟群組,請使用「VERITAS Volume Manager 管理指南」中所述的 VxVM 叢集功能。
在實體連結至磁碟的任何節點上成為超級使用者,這些磁碟組成要增加的磁碟群組。
建立 VxVM 磁碟群組與容體。
使用您喜好的方法來建立磁碟群組與容體。
如果您正在設定鏡像容體,可在發生節點故障時使用「已使用區域記錄」(DRL) 來減少容體回復時間。但是,DRL 可能會降低 I/O 產量。
請參閱 VERITAS Volume Manager 說明文件,以取得完成此步驟的程序。
將 VxVM 磁碟群組註冊為 Sun Cluster 磁碟裝置群組。
請參閱SPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)。
請不要使用叢集框架來註冊 Oracle Parallel Server 或 Oracle Real Application Clusters 共用磁碟群組。
此程序僅適用於封裝磁碟。如果您要初始化磁碟,請使用SPARC: 如何在起始磁碟時建立新的磁碟群組 (VERITAS Volume Manager)中的程序。
您可以將非根磁碟加入 Sun Cluster 磁碟裝置群組,方法是先將磁碟封裝為 VxVM 磁碟群組,然後將磁碟群組註冊為 Sun Cluster 磁碟裝置群組。
只有在起始建立 VxVM 磁碟群組時才支援磁碟封裝。在建立 VxVM 磁碟群組並將其註冊為 Sun Cluster 磁碟裝置群組之後,便只有可起始的磁碟才應加入磁碟群組中。
如果您使用 VxVM 來設定 Oracle Parallel Server 或 Oracle Real Application Clusters 的共用磁碟群組,請使用「VERITAS Volume Manager 管理指南」中所述的 VxVM 叢集功能。
成為叢集上任何節點的超級使用者。
如果密封的磁碟在 /etc/vfstab 檔中有系統檔案項目,請確定 mount at boot 選項被設為 no。
一旦磁碟已封裝並註冊為 Sun Cluster 磁碟裝置群組,就請設回 yes。
封裝磁碟。
使用 vxdiskadm 功能表或圖形化使用者介面來封裝磁碟。VxVM 需要在磁碟開頭或結尾處有二個可用分割區以及未指定的磁柱。片段 2 也必須設定成整個磁碟。請參閱 vxdiskadm(1M) 線上說明手冊,以取得詳細資訊。
先關閉再重新啟動節點。
scswitch(1M) 指令可以將所有的資源群組與裝置群組從主要節點切換至下一個喜好的節點。使用 shutdown 來關閉及重新啟動節點。
# scswitch -S -h node[,...] # shutdown -g0 -y -i6 |
如有需要,將所有資源群組以及裝置群組切換回原來的節點。
如果資源群組和裝置群組一開始便配置成故障返回主要節點,便不需要此步驟。
# scswitch -z -D disk-device-group -h node[,...] # scswitch -z -g resource-group -h node[,...] |
將 VxVM 磁碟群組註冊為 Sun Cluster 磁碟裝置群組。
請參閱SPARC: 如何將磁碟群組註冊為磁碟裝置群組 (VERITAS Volume Manager)。
請不要使用叢集框架來註冊 Oracle Parallel Server 或 Oracle Real Application Clusters 共用磁碟群組。
如果您在步驟 2 中將 mount at boot 選項設定為 no,請將其設回 yes。
當您新增新的容體至現有的 VxVM 磁碟裝置群組時,請從線上磁碟裝置群組的主要節點執行此程序。
增加容體後,您需要使用SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)中的程序來註冊配置變更。
成為叢集上任何節點的超級使用者。
決定您要新增新容體之磁碟裝置群組的主要節點。
# scstat -D |
如果磁碟裝置群組為離線狀態,請讓裝置群組上線。
# scswitch -z -D disk-device-group -h node[,...] |
切換指定的裝置群組。
指定磁碟裝置群組要切換至哪個節點,此節點會成為新的主要節點。
從主要節點 (目前主控磁碟裝置群組的節點) 建立磁碟群組中的 VxVM 容體。
請參閱 VERITAS Volume Manager 說明文件,以取得建立 VxVM 容體的程序。
註冊 VxVM 磁碟群組變更,以更新全域名稱空間。
DPM
先將磁碟群組匯入目前的節點,然後將該磁碟群組註冊為 Sun Cluster 磁碟裝置群組,可以將現有的 VxVM 磁碟群組轉換為 Sun Cluster 磁碟裝置群組。
如果由於某個次要編號與其他磁碟群組衝突而導致磁碟裝置群組註冊失敗,則您必須為新的磁碟群組指定一個新的、未使用的次要編號。指定好新的次要編號後,請重新執行程序將磁碟群組註冊為 Sun Cluster 磁碟裝置群組。
成為叢集上任何節點的超級使用者。
決定使用中的次要編號。
# ls -l /global/.devices/node@nodeid/dev/vx/dsk/* |
選擇另一個未使用的 1000 倍數當作新磁碟群組的基本次要編號。
指定新的次要編號給磁碟群組。
# vxdg reminor diskgroup base-minor-number |
將 VxVM 磁碟群組註冊為 Sun Cluster 磁碟裝置群組。
本範例使用 16000-16002 與 4000-4001 次級號碼。vxdg reminor 指令用來將基本次級號碼 5000 指定給新的磁碟裝置群組。
# ls -l /global/.devices/node@nodeid/dev/vx/dsk/* /global/.devices/node@nodeid/dev/vx/dsk/dg1 brw------- 1 root root 56,16000 Oct 7 11:32 dg1v1 brw------- 1 root root 56,16001 Oct 7 11:32 dg1v2 brw------- 1 root root 56,16002 Oct 7 11:32 dg1v3 /global/.devices/node@nodeid/dev/vx/dsk/dg2 brw------- 1 root root 56,4000 Oct 7 11:32 dg2v1 brw------- 1 root root 56,4001 Oct 7 11:32 dg2v2 # vxdg reminor dg3 5000 |
此程序使用 scsetup(1M) 公用程式將關聯的 VxVM 磁碟群組註冊為 Sun Cluster 磁碟裝置群組。
磁碟裝置群組在叢集註冊之後,請勿使用 VxVM 指令匯入或撤出 VxVM 磁碟群組。如果您變更了 VxVM 磁碟群組或容體,請使用SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)中的程序註冊磁碟裝置群組配置變更。這個程序可以確保全域名稱空間處於正確的狀態。
註冊 VxVM 磁碟裝置群組的必備條件如下:
叢集節點的超級使用者特權。
要註冊為磁碟裝置群組的 VxVM 磁碟群組的名稱。
您要管理磁碟裝置群組之節點的順序。
裝置群組所要的次要節點數目。
當您定義偏好的順序之後,當發生最慣用的節點關機而稍後返回叢集時,還可以指定是否要將磁碟裝置切換回最偏好的節點。
請參閱 scconf(1M),以取得有關節點喜好設定與故障回復選項的更多資訊。
非主要叢集節點 (備用) 會根據節點偏好順序轉換為次要節點。裝置群組預設的次要節點數目通常設定為一。這個預設設定可將正常操作時,因多個次要節點的主要檢查點所導致的效能降級降到最低。例如,在擁有四個節點的叢集中,預設上會配置一個主要、一個次要及兩個備用節點。另請參閱SPARC: 如何設定次要節點所要的數目 (VERITAS Volume Manager)。
成為叢集上任何節點的超級使用者。
輸入 scsetup 公用程式。
# scsetup |
顯示 Main Menu。
若要使用 VxVM 磁碟裝置群組,請輸入 4 (裝置群組與容體)。
會出現 Device Groups Menu。
若要註冊 VxVM 磁碟裝置群組,請輸入 1 (將 VxVM 磁碟群組註冊為裝置群組)。
依指示進行,同時輸入要註冊為 Sun Cluster 磁碟裝置群組的 VxVM 磁碟群組名稱。
如果您使用 VxVM 來設定 Oracle Parallel Server/Real Application Clusters 的共用磁碟群組,請勿以叢集框架來註冊共用磁碟群組。請使用「VERITAS Volume Manager 管理指南」中所述的 VxVM 叢集功能。
如果您在試圖註冊磁碟裝置群組時發生下列錯誤,請重新指定磁碟裝置群組的次要編號。
scconf: Failed to add device group - in use |
若要重新指定磁碟裝置群組的次要編號,請使用SPARC: 如何指定磁碟裝置群組的新次要編號 (VERITAS Volume Manager)中的程序。此程序可讓您指定新的次要編號,不與現存磁碟裝置群組所使用的次要編號相衝突。
驗證磁碟裝置群組是否已註冊且為連線狀態。
如果磁碟裝置群組已正確註冊,在使用以下指令時,將顯示新磁碟裝置群組的資訊。
# scstat -D |
如果您變更了任何在叢集中註冊的 VxVM 磁碟群組或容體的配置資訊,則必須使用 scsetup(1M) 同步化磁碟裝置群組。此處所指的配置資訊變更包括新增或移除容體,以及變更現有容體的群組、擁有者或權限。配置變更後重新註冊可以確保全域名稱空間處於正確的狀態。請參閱如何更新整體裝置名稱空間。
以下範例為註冊 VxVM 磁碟裝置群組 dg1 時,scsetup 所產生的 scconf 指令及驗證步驟。此範例假設 VxVM 磁碟群組及容體在先前便已建立。
# scsetup scconf -a -D type=vxvm,name=dg1,nodelist=phys-schost-1:phys-schost-2 # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg1 phys-schost-1 phys-schost-2 -- Device Group Status -- Device Group Status ------------ ------ Device group status: dg1 Online |
若要在 VxVM 磁碟裝置群組上建立叢集檔案系統,請參閱如何新增叢集檔案系統。
如果次要編號發生問題,請參閱SPARC: 如何指定磁碟裝置群組的新次要編號 (VERITAS Volume Manager)。
當您變更 VxVM 磁碟群組或容體的任何配置資訊時,您需要註冊 Sun Cluster 磁碟裝置群組的配置變更。註冊可以確保全域名稱空間處於正確的狀態。
成為叢集中任何節點的超級使用者。
執行 scsetup(1M) 公用程式。
# scsetup |
顯示 Main Menu。
若要使用 VxVM 磁碟裝置群組,請輸入 4 (裝置群組與容體)。
會出現 Device Groups Menu。
若要註冊配置變更,請輸入 2 (同步化 VxVM 裝置群組的容體資訊)。
請依指示進行,同時輸入已經變更配置的 VxVM 磁碟群組。
以下範例顯示註冊變更的 VxVM 磁碟裝置群組 (dg1) 時,scsetup 所產生的 scconf 指令。此範例假設 VxVM 磁碟群組及容體在先前便已建立。
# scsetup scconf -c -D name=dg1,sync |
numsecondaries 特性可以指定主要節點發生故障時裝置群組中可以控制群組的節點數目。裝置服務預設的次要節點數目為 1。這個值可以設定為介於 1 和裝置群組中運作的非主要提供者之節點數之間的任何整數。
在平衡叢集效能與可用性上,這個設定是很重要的因素。例如,增加所要的次要節點數目,可以增加裝置群組對抗叢集中同時發生多種故障的機會。不過,增加次要節點數目也會定期降低正常作業時的效能。較小的次要節點數目一般會產生較佳的效能,但是會降低可用性。不過,較大的次要節點數目卻不一定會使上述檔案系統或裝置群組具有較高的可用性。請參閱「Sun Cluster 概念指南 (適用於 Solaris 作業系統)」中的第 3 章「針對系統管理員和應用程式開發者的重要概念」,以取得更多資訊。
成為叢集上任何節點的超級使用者。
執行 scsetup(1M) 公用程式。
# scsetup |
顯示 Main Menu。
若要使用 VxVM 磁碟裝置群組,請輸入 4 (裝置群組與容體)。
會出現 Device Groups Menu。
若要變更裝置群組的主要特性,請輸入 6 (變更裝置群組的主要特性)。
顯示 Change Key Properties Menu。
若要變更所要的次要節點數目,請輸入 2 (變更 numsecondaries 特性)。
依指示進行,同時輸入要為磁碟裝置群組配置的所要次要節點數目。輸入適當的值之後,便會執行對應的 scconf 指令。接著會列印記錄,且使用者會返回上一個功能表。
使用 scconf -p 指令驗證裝置群組配置。
# scconf -p | grep Device Device group name: dg-schost-1 Device group type: VxVM Device group failback enabled: yes Device group node list: phys-schost-1,phys-schost-2, phys-schost-3 Device group ordered node list: yes Device group desired number of secondaries: 1 Device group diskset name: dg-schost-1 |
如果您變更了任何在叢集註冊完成的 VxVM 磁碟群組或容體的配置資訊,必須使用 scsetup 來重新註冊磁碟裝置群組。此處所指的配置資訊變更包括新增或移除容體,以及變更現有容體的群組、擁有者或權限。配置變更後重新註冊可以確保全域名稱空間處於正確的狀態。請參閱如何更新整體裝置名稱空間。
確認磁碟裝置群組的主要節點及狀態。
# scstat -D |
以下範例顯示當 scsetup 配置裝置群組 (diskgrp1) 所要的次要節點數目時,所產生的 scconf 指令。請參閱如何變更裝置群組所要的次要節點數目,以取得有關在建立裝置群組後變更所需的次要節點數目的資訊。
# scconf -a -D type=vxvm,name=diskgrp1,nodelist=host1:host2:host3\ ,preferenced=true,failback=enabled,numsecondaries=2 |
從磁碟裝置群組中移除容體後,您必須使用SPARC: 如何註冊磁碟群組配置變更 (VERITAS Volume Manager)中的程序將配置變更註冊至磁碟裝置群組。
成為叢集上任何節點的超級使用者。
決定磁碟裝置群組的主要節點及狀態。
# scstat -D |
如果磁碟裝置群組處於離線狀態,請先恢復其連線。
# scswitch -z -D disk-device-group -h node |
執行切換。
指定要切換的裝置群組。
指定要切換至哪一個節點名稱,此節點會成為新的主要節點。
從主要節點 (目前主控磁碟裝置群組的節點) 移除磁碟群組中的 VxVM 容體。
# vxedit -g diskgroup -rf rm volume |
指定含有容體的 VxVM 磁碟群組。
移除指定的容體。-r 選項可以使作業重複執行。需要使用 -f 選項移除已啟用的容體。
使用 scsetup(1M) 註冊磁碟裝置群組配置變更,以更新全域名稱空間。
移除 Sun Cluster 磁碟裝置群組將會導致對應的 VxVM 磁碟群組被撤出,而不是被銷毀。不過,即使 VxVM 磁碟群組依然存在,除非重新註冊,否則不能用於叢集。
此程序會使用 scsetup(1M) 公用程式移除 VxVM 磁碟群組,並將其作為 Sun Cluster 磁碟裝置群組註銷。
成為叢集上任何節點的超級使用者。
使磁碟裝置群組離線。
# scswitch -F -D disk-device-group |
使磁碟裝置群組離線。
指定要離線的裝置群組。
輸入 scsetup 公用程式。
顯示 Main Menu。
# scsetup |
若要使用 VxVM 裝置群組,請輸入 4 (裝置群組與容體)。
會出現 Device Groups Menu。
若要註銷 VxVM 磁碟群組,請輸入 3 (註銷 VxVM 裝置群組)。
請依指示進行,並輸入要註銷的 VxVM 磁碟群組。
以下範例顯示離線的 VxVM 磁碟裝置群組 dg1,以及 scsetup 在移除並取消註冊磁碟裝置群組時所產生的 scconf 指令。
# scswitch -F -D dg1 # scsetup scconf -r -D name=dg1 |
此程序使用 scsetup(1M) 公用程式將節點增加至磁碟裝置群組。
新增節點至 VxVM 磁碟裝置群組的必備條件如下:
叢集節點的超級使用者特權
要新增節點的 VxVM 裝置群組名稱
要新增節點的節點 ID 或名稱
成為叢集上任何節點的超級使用者。
出現提示符號時,請鍵入 scsetup 指令。
# scsetup |
顯示 Main Menu。
若要使用 VxVM 磁碟裝置群組,請輸入 4 (裝置群組與容體)。
會出現 Device Groups Menu。
若要新增節點到 VxVM 磁碟裝置群組,請輸入 4 (新增節點至 VxVM 裝置群組)。
請依指示進行,同時輸入裝置群組與節點名稱。
確認節點是否已新增。
請查詢下列指令顯示之新磁碟的裝置群組資訊。
# scconf -p |
以下範例顯示了 scsetup 增加節點 (phys-schost-3) 至 VxVM 磁碟裝置群組 (dg1) 時產生的 scconf 指令和驗證步驟。
# scsetup scconf a D type=vxvm,name=dg1,nodelist=phys-schost-3 # scconf -p Device group name: dg1 Device group type: VXVM Device group failback enabled: yes Device group node list: phys-schost-1, phys-schost-3 |
使用此程序從 VERITAS Volume Manager (VxVM) 磁碟裝置群組 (磁碟群組) 之潛在主要節點清單移除叢集節點。
確認節點仍然是群組的成員,且群組為 VxVM 裝置群組。
VxVM 裝置群組類型表示一個 VxVM 磁碟裝置群組。
phys-schost-1% scconf -pv | grep '(global-galileo)' (global-galileo) Device group type: VxVM (global-galileo) Device group failback enabled: no (global-galileo) Device group node list: phys-schost-1, phys-schost-2 (global-galileo) Diskset name: global-galileo phys-schost-1% |
成為現行叢集成員節點的超級使用者。
執行 scsetup(1M) 指令。
# scsetup |
顯示 Main Menu。
若要重新配置磁碟裝置群組,請輸入 4 (裝置群組與容體)。
若要從 VxVM 磁碟裝置群組移除節點,請鍵入 5 (從 VxVM 裝置群組移除節點)。
依提示從磁碟裝置群組移除叢集節點。系統將詢問您以下項目的相關資訊:
VxVM 裝置群組
節點名稱
確認已從 VxVM 磁碟裝置群組中移除節點。
# scconf -p | grep Device |
此範例顯示從 dg1 VxVM 磁碟裝置群組移除名為 phys-schost-1 的節點。
[Determine the VxVM disk device group for the node:] # scconf -p | grep Device Device group name: dg1 Device group type: VxVM Device group failback enabled: no Device group node list: phys-schost-1, phys-schost-2 Device group diskset name: dg1 [Become superuser and execute the scsetup utility:] # scsetup Select Device groups and volumes>Remove a node from a VxVM device group. Answer the questions when prompted. You will need the following information. You Will Need: Example: VxVM device group name dg1 node names phys-schost-1 [Verify that the scconf command executed properly:] scconf -r -D name=dg1,nodelist=phys-schost-1 Command completed successfully. Quit the scsetupDevice Groups Menu and Main Menu. [Verify that the node was removed:] # scconf -p | grep Device Device group name: dg1 Device group type: VxVM Device group failback enabled: no Device group node list: phys-schost-2 Device group diskset name: dg1 |
使用此程序從 VERITAS Volume Manager (VxVM) 磁碟裝置群組 (磁碟群組) 之潛在主要節點清單中,移除一個叢集節點。
使用此程序從原始磁碟裝置群組的潛在主要節點清單中,移除一個叢集節點。
在不同於要移除的節點叢集中的一個節點上成為超級使用者。
找到與已移除節點連結的磁碟裝置群組。
在裝置群組節點清單項目中尋找節點名稱。
# scconf -pvv | grep nodename | grep "Device group node list" |
確認在步驟 2 找到的哪些磁碟裝置群組為原始磁碟裝置群組。
原始磁碟裝置群組屬於 Disk 或 Local_Disk 裝置群組類型。
# scconf -pvv | grep group-type |
停用每一個 Local_Disk 原始磁碟裝置群組的 localonly 特性。
# scconf -c -D name=rawdisk-device-group,localonly=false |
請參閱 scconf_dg_rawdisk(1M) 線上手冊,以取得有關 localonly 特性的更多資訊。
確認您已停用所有連結到已移除節點的原始磁碟裝置群組的 localonly 特性。
Disk 裝置群組勒種類表示關閉原始磁碟裝置群組的 localonly 特性。
# scconf -pvv | grep group-type |
從在步驟 3 中識別出的所有原始磁碟裝置群組移除節點。
您必須針對連結至已移除節點的每一個原始磁碟裝置群組完成這個步驟。
# scconf -r -D name=rawdisk-device-group,nodelist=nodename |
這個範例顯示如何從原始磁碟裝置群組移除節點 (phys-schost-2)。所有指令是從叢集的另一個節點執行 (phys-schost-1)。
[識別連接至要移除的節點的磁碟裝置群組:] phys-schost-1# scconf -pvv | grep phys-schost-2 | grep "Device group node list" (dsk/d4) Device group node list: phys-schost-2 (dsk/d2) Device group node list: phys-schost-1, phys-schost-2 (dsk/d1) Device group node list: phys-schost-1, phys-schost-2 [識別原始磁碟裝置群組:] phys-schost-1# scconf -pvv | grep Disk (dsk/d4) Device group type: Local_Disk (dsk/d8) Device group type: Local_Disk [停用節點上每個本機磁碟的 localonly 旗標:] phys-schost-1# scconf -c -D name=dsk/d4,localonly=false [驗證 localonly 旗標是否已停用:] phys-schost-1# scconf -pvv | grep Disk (dsk/d4) Device group type: Disk (dsk/d8) Device group type: Local_Disk [從原始磁碟裝置群組中移除節點:] phys-schost-1# scconf -r -D name=dsk/d4,nodelist=phys-schost-2 phys-schost-1# scconf -r -D name=dsk/d2,nodelist=phys-schost-2 phys-schost-1# scconf -r -D name=dsk/d1,nodelist=phys-schost-2 |
建立磁碟裝置群組的主要所有權的方法是以名為 preferenced 的所有權喜好設定屬性的設定值為基礎的。如果未設定此性質,則其他無所有者之磁碟裝置群組的主要所有者,會是第一個試圖存取該群組中磁碟的節點。不過,如果已經設定這個性質,您必須指定節點建立所有權時依據的喜好順序。
如果您停用 preferenced 屬性,則 failback 屬性也會自動停用。然而,如果您嘗試啟用或重新啟用 preferenced 屬性,則可以選擇啟用或停用 failback 屬性。
如果 preferenced 性質已經啟動或重新啟動,系統會要求您重新建立主要所有權喜好設定清單中的節點順序。
此程序使用 scsetup(1M) 設定或取消設定 Solstice DiskSuite/Solaris Volume Manager 或 VxVM 磁碟裝置群組的 preferenced 屬性和 failback 屬性。
若要執行這個程序,需要您要變更性質值之磁碟裝置群組的名稱。
成為叢集上任何節點的超級使用者。
執行 scsetup 指令。
顯示 Main Menu。
# scsetup |
要使用磁碟裝置群組,請輸入 4 (裝置群組與容體)。
會出現 Device Groups Menu。
若要變更裝置群組的主要特性,請輸入 6 (變更 VxVM 或 Solstice DiskSuite/Solaris Volume Manager 裝置群組的主要特性)。
此時會顯示 Change Key Properties Menu
若要變更裝置群組特性,請輸入 1 (變更 preferenced 及/或 failback 特性)。
請依指示來設定裝置群組的 preferenced 和 failback 選項。
確認磁碟裝置群組性質變更成功。
請查詢下列指令顯示的裝置群組資訊。
# scconf -p |
以下範例顯示 scconf 指令 (scsetup 在設定磁碟裝置群組 dg-schost-1 的性質值時所產生)。
# scconf -c -Dname=dg-schost-1,nodelist=phys-schost-1:phys-schost-2, \ preferenced=true,failback=enabled,numsecondaries=1 # scconf -p | grep Device Device group name: dg-schost-1 Device group type: SDS Device group failback enabled: yes Device group node list: phys-schost-1, phys-schost-2 Device group ordered node list: yes Device group desired number of secondaries: 1 Device group diskset name: dg-schost-1 |
裝置群組之次要節點的預設數目設定為一個。這個設定會在主要節點故障時,用來指定裝置群組內可成為群組主要所有者的節點數目。所要次要節點數目的值,可以設為介於一和裝置群組中非主要提供者節點數目之間的任何整數。
如果 numsecondaries 特性改變,且此變更造成次要節點的實際數目與所要數目不符,則次要節點會新增或從裝置群組移除。
此程序使用 scsetup(1M) 設定或取消設定 Solstice DiskSuite/Solaris Volume Manager 或 VxVM 磁碟裝置群組的 numsecondaries 特性。請參閱 scconf_dg_rawdisk(1M)、scconf_dg_sds(1M)、scconf_dg_svm(1M) 與 scconf_dg_vxvm(1M),以取得有關配置任何裝置群組時的磁碟裝置群組選項之資訊。
成為叢集上任何節點的超級使用者。
執行 scsetup 公用程式。
# scsetup |
顯示 Main Menu。
若要使用磁碟裝置群組,請鍵入 5 (裝置群組與容體)。
會出現 Device Groups Menu。
若要變更裝置群組的主要特性,請輸入 6 (變更裝置群組的主要特性)。
顯示 Change Key Properties Menu。
若要變更所要的次要節點數目,請輸入 2 (變更 numsecondaries 特性)。
依指示進行,同時輸入要為磁碟裝置群組配置的所要次要節點數目。輸入適當的值之後,便會執行對應的 scconf 指令,並印出一份記錄,且使用者會返回前一個功能表。
確認磁碟裝置群組性質變更成功。
請查詢下列指令所顯示的裝置群組資訊。
# scconf -p |
以下範例顯示當 scsetup 配置裝置群組 (dg-schost-1) 所要的次要節點數目時,所產生的 scconf 指令。此範例假設磁碟群組及容體在先前便已建立。
# scconf -c -D name=phys-host-1,nodelist=phys-schost-1:phys-schost-2,phys-schost-3 \ preferenced=true,failback=enabled,numsecondaries=1 # scconf -p | grep Device Device group name: dg-schost-1 Device group type: SDS/SVM Device group failback enabled: yes Device group node list: phys-schost-1, phys-scost-2, phys-schost-3 Device group ordered node list: yes Device group desired number of secondaries: 1 Device group diskset name: dg-schost-1 |
以下範例顯示使用空字串值來配置次要節點的預設數目。裝置群組將配置為使用預設值,即使預設值改變。
# scconf -c -D name=diskgrp1, nodelist=host1:host2:host3, \ preferenced=false,failback=enabled,numsecondaries= # scconf -p | grep Device Device group name: dg-schost-1 Device group type: SDS/SVM Device group failback enabled: yes Device group node list: phys-schost-1, phost-2, phys-schost-3 Device group ordered node list: yes Device group desired number of secondaries: 1 Device group diskset name: dg-schost-1 |
請使用以下清單中的方法之一。
使用 SunPlex Manager GUI。
請參閱 SunPlex Manager 線上說明,以取得詳細資訊。
使用 scstat(1M) 列出磁碟裝置群組配置。
% scstat -D |
使用 scconf(1M) 列出磁碟裝置群組配置。
% scconf -p |
使用 scstat -D 指令可顯示下列資訊。
-- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: phys-schost-2 - - Device group servers: phys-schost-1 phys-schost-2 phys-schost-3 Device group servers: phys-schost-3 - - -- Device Group Status -- Device Group Status ------------ ------ Device group status: phys-schost-2 Offline Device group status: phys-schost-1 Online Device group status: phys-schost-3 Offline |
當您使用 scconf 指令時,請查詢列於裝置群組下方的資訊。
# scconf -p ... Device group name: dg-schost-1 Device group type: SDS/SVM Device group failback enabled: yes Device group node list: phys-schost-2, phys-schost-3 Device group diskset name: dg-schost-1 |
此程序也可以用於啟動非使用中的裝置群組 (使其連線)。
您也可將非使用中的裝置群組予以連線,或使用 SunPlex Manager GUI 切換裝置群組的主要節點。請參閱 SunPlex Manager 線上說明,以取得詳細資訊。
成為叢集上任何節點的超級使用者。
使用 scswitch(1M) 切換磁碟裝置群組的主要節點。
# scswitch -z -D disk-device-group -h node |
執行切換。
指定要切換的裝置群組。
指定要切換至哪一個節點名稱,此節點會成為新的主要節點。
確認磁碟裝置群組已經成功切換到新的主要節點。
如果磁碟裝置群組已正確註冊,在使用以下指令時,將顯示新磁碟裝置群組的資訊。
# scstat -D |
以下範例顯示如何切換磁碟裝置群組的主要節點以及驗證變更。
# scswitch -z -D dg-schost-1 -h phys-schost-1 # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 phys-schost-2 -- Device Group Status -- Device Group Status ------------ ------ Device group status: dg-schost-1 Online |
使裝置群組進入維護狀態可避免在存取其中一個裝置時,裝置群組自動連線。在完成需要所有 I/O 活動停止直到維修完成的維修程序後,您應使裝置群組處於維護狀態。使裝置群組處於維護狀態也可避免資料流失,可確保當一個節點的磁碟組或磁碟群組在維修時,磁碟裝置群組不會連線到另一個節點上。
您必須先停止所有存取裝置的動作、卸載所有相依檔案系統,之後才能使該裝置群組進入維護狀態。
使裝置群組進入維護狀態。
# scswitch -m -D disk-device-group |
如果所執行的修復程序需要磁碟組或磁碟群組的所有權,請以手動方式匯入該磁碟組或磁碟群組。
用於 Solstice DiskSuite/Solaris Volume Manager:
# metaset -C take -f -s diskset |
如果您要取得 Solstice DiskSuite/Solaris Volume Manager 磁碟組的所有權,則當裝置群組處於維護狀態時,必須使用 metaset -C take 指令。使用 metaset -t 會使裝置群組以部分所有權形式恢復連線。如果您要匯入 VxVM 磁碟群組,必須在匯入磁碟群組時使用 -t 旗標。如此可避免在此節點重新啟動時,產生自動匯入磁碟群組的情形。
針對 VERITAS Volume Manager:
# vxdg -t import disk-group-name |
完成任何需要執行的維修程序。
釋放磁碟組或磁碟群組的所有權。
使磁碟裝置群組脫離維護狀態前,您必須釋放磁碟組或磁碟群組的所有權。未完成此程序將可能造成資料流失。
用於 Solstice DiskSuite/Solaris Volume Manager:
# metaset -C release -s diskset |
針對 VERITAS Volume Manager:
# vxdg deport disk-group-name |
使磁碟裝置群組進入連線狀態。
# scswitch -z -D disk-device-group -h node |
此範例顯示如何使磁碟裝置群組 dg-schost-1 進入維護狀態,以及如何從維護狀態移除磁碟裝置群組。
[Place the disk device group in maintenance state.] # scswitch -m -D dg-schost-1 [If needed, manually import the diskset or disk group.] For Solstice DiskSuite/Solaris Volume Manager: # metaset -C take -f -s dg-schost-1 For VERITAS Volume Manager: # vxdg -t import dg1 [Complete all necessary repair procedures.] [Release ownership.] For Solstice DiskSuite/Solaris Volume Manager: # metaset -C release -s dg-schost-1 For VERITAS Volume Manager: # vxdg deport dg1 [Bring the disk device group online.] # scswitch -z -D dg-schost-1 -h phys-schost-1 |