本節提供規劃叢集配置的容體管理準則。
Sun Cluster 使用容體管理者軟體,將磁碟組成磁碟裝置群組,就可將其視為一個單元來管理。 Sun Cluster 支援 Solstice DiskSuite 軟體和 VERITAS 容體管理者 (VxVM)。單一叢集配置內之能有一個容體管理者。 請參照您的容體管理者文件以及 附錄 A, 配置 Solstice DiskSuite 軟體 或 附錄 B, 配置 VERITAS 容體管理者 以取得 關於配置容體管理者軟體的說明。有關叢集配置中容體管理的其他資訊,請參照 Sun Cluster 3.0 概念。
如果適用的話,在 Sun Cluster 3.0 版次注意事項 的「磁碟裝置群組配置工作表」中,加入此規劃資訊和「容體管理者配置工作表」,以及 Sun Cluster 3.0 版次注意事項 中的「Metadevices 工作表 (Solstice DiskSuite)」。
配置磁碟時,請考慮以下的一般準則。
鏡映多主機磁碟 - 您必須鏡映跨磁碟擴充單元的所有多主機磁碟。請參閱 "鏡映多主機磁碟" 以取得關於鏡映多主機磁碟的準則。
鏡映根 - 鏡映 根磁碟可確保高可用性,但是這種鏡映並非必要。請參閱 "鏡映準則" 以取得決定是否要鏡映 根磁碟的準則。
唯一名稱 - 在任何 的叢集節點,如果有區域 Solstice DiskSuite metadevice 或 VxVM 容體作為裝載 /global/.devices/node@nodeid 檔案系統的裝置, 該 metadevice 或容體的名稱在叢集中必須是唯一的。
節點清單 - 為了確保磁碟裝置群組的高可用性, 必須使其潛在主控者的節點清單與失效回復策略與任何相關的資源群組相同。或者,如果可延伸資源群組使用的節點 超過其關聯的磁碟裝置群組,那麼,要把可延伸資源群組的節點,變成磁碟裝置群組的節點清單的超集。 請參照 Sun Cluster 3.0 Data Services Installation and Configuration Guide 中的資源群組規劃資訊以取得節點清單的相關資訊。
多埠連接的磁碟 - 您必須 把建構叢集內裝置群組的所有磁碟,連接 (或埠接)至配置於該裝置群組之節點清單的所有節點。 Solstice DiskSuite 軟體,可以在磁碟加入磁碟組時自動進行檢查。然而,配置的 VxVM 磁碟群組與任何特定的節點 集合沒有關聯。此外,當您使用叢集軟體將 Solstice DiskSuite 磁碟組、VxVM 磁碟群組或個別全域裝置組 註冊為全域裝置群組時,您只能執行有限的連接性檢查。
熱備用磁碟 - 您可以使用熱備用磁碟來增加可用性,但是並非必要。
請參照容體管理者文件,以取得磁碟規劃建議及和附帶的限制。
規劃 Solstice DiskSuite 配置時請考慮以下幾點。
仲裁者 - 每一個正好配置兩個磁碟串連、且正好受 兩個節點主控的磁碟組,該磁碟組必須配置 Solstice DiskSuite 仲裁者。磁碟串連 是由磁碟外殼、其實體磁碟、外殼與節點的電纜 以及介面配接卡所組成。如果磁碟組正好有兩個作為仲裁者主機的節點,那麼您必須對該磁碟組做配置。對於所有需要仲裁者的磁碟組,您必須使用兩個相同的節點, 而且這兩個節點必須主控這些磁碟組。對於不是兩個串聯和兩個主機的磁碟組,不能配置仲裁者。請參閱 mediator(7) 線上援助頁以取得詳細資訊。
/kernel/drv/md.conf 設定 - 在重新配置啟動時,每個磁碟組使用的所有 metadevice,都必須根據在 /kernel/drv/md.conf 檔案中的配置參數,預先建立。在 Solstice DiskSuite 文件中,有 md.conf 檔案 的欄位說明。您必須依照下列的方式修改 nmd 和 md_nsets 欄位以支援 Sun Cluster 配置。
nmd - nmd 欄位,對每一個磁碟組建立的 metadevice 數目做定義。您必須 將 nmd 的值,設定為叢集中任一磁碟組預期會使用的最大 metadevice 數目。 例如,如果叢集前 15 個磁碟組使用 10 個 metadevice,但是第 16 個磁碟組使用 1000 個 metadevice,則 nmd 的值至少需設定為 1000。每個磁碟組允許的最大 metadevice 數目是 8192。
對系統建立的磁碟組總數,md_nsets - md_nsets 欄位可以加以定義,使其符合整個叢集的需求。您必須將 md_nsets 的值,設定為叢集中預期的磁碟組數目,再加上一個以允許 Solstice DiskSuite 軟體管理 本端主機上的私有磁碟 (即不在本端磁碟組中的 metadevice)。每個叢集允許的最大磁碟組數目是 32。
安裝時,請設定這些欄位,使叢集可以容許未來的預期擴充性。 在叢集正式運行後,再增加這些值會非常費時,因為這些變更動作,需要每個節點重新配置及重新開機。之後再增加這些值,也會讓 root (/) 檔案系統,沒有足夠的配置空間以建立所有需要裝置的可能性增加。
所有的叢集節點必須要有相同的 /kernel/drv/md.conf 檔案, 不管每一個節點服務幾個磁碟組。未遵循此準則會導致嚴重的 Solstice DiskSuite 錯誤和可能的資料流失。
規劃 VERITAS 容體管理者 (VxVM) 配置時請考慮以下幾點。
根磁碟群組 - 您必須在每一個節點上 建立預設根磁碟群組 (rootdg)。rootdg 磁碟群組可以建立於下列磁碟上。
根磁碟,必須封裝
一或多個本機非根磁碟,可以封裝或起始設定
根和本機非根磁碟的組合
rootdg 磁碟群組必須是在節點的本機。
封裝 - 要封裝的磁碟,必須具有兩個可用的磁碟片段表格登錄。
容體數 - 在建立磁碟裝置群組時,對所有指定的磁碟裝置群組, 估計其使用的最大容體數。
如果容體數小於 1000,您可以使用預設的次要號碼。
如果容體是 1000 或以上,有關磁碟裝置群組指定次要號碼的方式,要小心地規劃。 兩個磁碟裝置群組指定的次要號碼,不可重疊。
Dirty Region Logging - 建議使用「Dirty Region Logging (DRL)」, 但並非必要的。使用 DRL,可減少節點故障之後容體的回復時間。使用 DRL 可能會使 I/O 產量降低。
記錄對叢集檔案系統而言是必要的。Sun Cluster 支援下列的記錄檔案系統。
Solstice DiskSuite trans-metadevice UNIX 檔案系統 (UFS) 記錄
Solaris UFS logging
有關 Solstice DiskSuite trans-metadevice UFS logging 的資訊,請參照 Solstice DiskSuite 文件。有關 Solaris UFS logging 的資訊,請參照 mount_ufs(1M) 線上援助頁 和 Solaris Transition Guide。
下表列出每一個容體管理者支援的記錄檔案系統。
表 1-4 支援的檔案系統記錄矩陣
容體管理者 |
支援的檔案系統記錄 |
---|---|
Solstice DiskSuite |
Solstice DiskSuite trans-metadevice UFS logging, Solaris UFS logging |
VERITAS 容體管理者 |
Solaris UFS logging |
Solstice DiskSuite 容體管理者,在選擇 Solaris UFS logging 或 Solstice DiskSuite trans-metadevice UFS logging 時,請考慮以下幾點。
Solaris UFS 記錄大小 - Solaris UFS logging 通常會 使用 UFS 檔案系統上的可用空間,並根據檔案系統的大小來配置記錄。
在小於 1 GB 的檔案系統上,記錄會佔用 1 MB 的空間。
在大於 1 GB 以上的檔案系統中,每 1 GB 的記錄,佔用 1 MB 的空間,最多是 64 MB。
記錄 metadevice - 利用 Solstice DiskSuite trans-metadevice UFS logging,用來記錄的 trans 裝置會建立 metadevice。記錄又是另一個您可以鏡映和資料分置的 metadevice。 此外,您可以用 Solstice DiskSuite 軟體建立最大 1-TB 的記錄檔案系統。
本節提供規劃您的叢集配置的鏡映準則。
鏡映 Sun Cluster 配置中所有的多主機磁碟,此配置可容許單磁碟的失效。 Sun Cluster 軟體,需要您跨磁碟擴充單元鏡映所有的多主機磁碟。
分開磁碟擴充單元 - 指定的鏡映或 plex 的每一個子鏡映,應該位於不同的多主機磁碟擴充單元。
磁碟空間 - 鏡映需要雙倍的磁碟空間。
三向鏡映 - Solstice DiskSuite 軟體 和 VERITAS 容體管理者 (VxVM) 支援三向鏡映。然而,Sun Cluster 僅需要雙向鏡映。
metadevice 數目 - 在 Solstice DiskSuite 軟體下,鏡映是由其他 metadevice (如接合和資料分置) 所組成。大型的配置可能包含大量的 metadevice。例如, 每個記錄 UFS 的檔案系統會建立七個 metadevice。
不同磁碟空間大小 - 如果 您鏡映至不同大小的磁碟,您的鏡映容量限制是最小的子鏡映,或 plex 的大小。
有關多主機磁碟的其他資訊,請參照 Sun Cluster 3.0 概念。
為了得到最大的可用性,您應該鏡映本機上的 root (/)、 /usr、/var、/opt 和 swap。 在 VxVM 下,封裝根磁碟和鏡映所產生的子磁碟。然而,鏡映根磁碟並非 Sun Cluster 的需求。
決定是否要鏡映根磁碟之前,請考慮有關根磁碟各種替代方案的風險、複雜度、成本和維修時間。 並沒有一種鏡映策略可以適用所有的配置。當您決定是否要鏡映根時,可能要考慮您當地的「企業服務」代表所偏好的解決方案。
請參照容體管理者文件以及 附錄 A, 配置 Solstice DiskSuite 軟體 或 附錄 B, 配置 VERITAS 容體管理者 ,以取得鏡映根磁碟的說明。
複雜度 - 鏡映根磁碟會增加系統管理 以及在單用戶模態啟用的複雜度。
備份 - 不管是否鏡映根磁碟,您都應該定期執行根磁碟的備份。只有鏡映並不能防止管理上的錯誤。 只有備份計劃能讓您復原意外變更或刪除的檔案。
法定人 - 在 Solstice DiskSuite 軟體之下,在發生 metadevice 狀態資料庫法定人遺失的失效狀況時,您不能 在執行維修前,將系統重新啟動。請參照 Solstice DiskSuite 文件,以取得有關 metadevice 狀態資料庫抄本的資訊。
個別控制器 - 最高可用性 包括在個別控制器上鏡映根磁碟。
開機磁碟 - 您 可以設定鏡映為可啟動根磁碟,當主要根磁碟失效時使您可以從鏡映開機。
次要開機磁碟 - 利用 鏡映的根磁碟,主要根磁碟可以失效,但是可以在次要 (鏡映) 根磁碟上繼續作業。稍後, 主要根磁碟可以返回服務 (可能要等電源關閉再開啟,或短暫的 I/O 錯誤後),後續的啟動則由 OpenBootTMPROM boot-device 欄位中, 指定的主要根磁碟來執行。在此狀況下,不會發生任何手動修復工作,但是磁碟機運作良好足以開機。請注意,會發生 Solstice DiskSuite 再重新同步作業。重新同步需要在磁碟機返回服務時,以手動方式進行。
如果在次要 (鏡映) 根磁碟上變更任何檔案,在啟動時並不會反映在主要根磁碟上 (造成舊的子鏡映)。例如,會遺失 /etc/system 的檔案變更資料 。當主要根磁碟沒有在作用時,有些 Solstice DiskSuite 管理指令可能會變更 /etc/system 檔案。
啟動程式不會檢查是從鏡映或從基礎實體裝置啟動,而且經過啟動程序後 鏡映變為部份作用 (載入 metadevice 之後)。在此之前,系統會有陳舊子鏡映問題而變得不穩定。