對您建立的每個磁碟組執行此程序。
如果您已使用 SunPlex Manager 安裝了 Solstice DiskSuite,則可能已經存在一個到三個磁碟組。 請參閱使用 SunPlex Manager 安裝 Sun Cluster 軟體 ,以取得關於由 SunPlex Manager 建立的 metaset 的資訊。
是否要在叢集內建立個數超過三個的磁碟組?
確定 md_nsets 變數值設定得夠高,以符合您要在叢集中建立的磁碟組總數。
在叢集的任何節點上,檢查 md_nsets 變數值,該變數值位於 /kernel/drv/md.conf 檔中。
如果叢集中的磁碟組總數大於現有的 md_nsets 負值,請增加每個節點的 md_nsets 值,使其達到所需的值。
許可的最大磁碟組數目比 md_nsets 的配置值小一。 md_nsets 的最大值為 32。
確定 /kernel/drv/md.conf 檔在叢集的每個節點上都相同。
未遵循此準則會導致嚴重的 Solstice DiskSuite/Solaris Volume Manager 錯誤並可能會有資料流失。
在某一個節點上關閉叢集。
# scshutdown -g0 -y |
重新啟動叢集的每個節點。
ok> boot |
在叢集的每一個節點上執行 devfsadm(1M) 指令。
您可以在叢集的所有節點上同時執行此指令。
從叢集的某個節點處,執行 scgdevs(1M) 指令以更新整體裝置名稱空間。
在每個節點上,確認 scgdevs 指令已於您嘗試建立任意磁碟組之前完成了處理。
scgdevs 指令在所有節點上自行遠端呼叫,即使只從一個節點執行指令也是如此。 若要判斷 scgdevs 指令是否已經完成作業,請在叢集的每個節點上執行下列指令。
% ps -ef | grep scgdevs |
確定您要建立的磁碟組符合以下任何一項條件。
如果磁碟組的配置正好是兩個磁碟串聯,磁碟組必須連接至兩個節點,並且使用兩個仲裁者主機,而這兩個主機必須與磁碟組使用的兩個主機相同。 請參閱配置雙串聯仲裁者 ,以取得有關如何配置雙串聯仲裁者的詳細資訊。
如果磁碟組是用超過兩個的磁碟串聯配置的,請確定對於任何兩個磁碟串聯 S1 與 S2,這些串聯上的磁碟機總數均超過第三個串聯 S3 上的磁碟機數目。以公式說明,需求為計數 (S1) + 計數 (S2) > 計數 (S3)。
確定本機狀態資料庫複本是否存在。
相關說明,請參閱 如何建立狀態資料庫複本 。
成為叢集節點上的超級使用者來主控磁碟組。
建立磁碟組。
以下指令會建立磁碟組,並將磁碟組註冊為 Sun Cluster 磁碟裝置群組。
# metaset -s setname -a -h node1 node2 |
指定磁碟組名稱
新增 (建立) 磁碟組
指定主控磁碟組的主要節點名稱
指定主控磁碟組的次要節點名稱
當您執行 metaset 指令來配置叢集上的 Solstice DiskSuite/Solaris Volume Manager 裝置群組時,依預設指令會指定一個次要節點。 您可以在建立裝置群組之後,使用 scsetup(1M) 公用程式來變更裝置群組中所需的次要節點數目。 請參閱Sun Cluster 系統管理指南 (適用於 Solaris 作業系統)中的「管理磁碟裝置群組」,以取得關於如何變更 numsecondaries 屬性的詳細資訊。
確認新磁碟組的狀態。
# metaset -s setname |
在磁碟組中新增磁碟機。
移至在磁碟組中新增磁碟機 。
下列指令會利用指定為潛在主要節點的節點 phys-schost-1 和 phys-schost-2,建立兩個磁碟組 dg-schost-1 和 dg-schost-2。
# metaset -s dg-schost-1 -a -h phys-schost-1 phys-schost-2 # metaset -s dg-schost-2 -a -h phys-schost-1 phys-schost-2 |