本節提供配置叢集上安裝之軟體的資訊與程序。
下表列出配置叢集需要執行的作業。 開始進行這些作業之前,請先確定已經完成下列作業︰
安裝軟體 中描述的叢集框架安裝程序
安裝和配置 Solstice DiskSuite/Solaris Volume Manager 軟體 或SPARC: 安裝與配置 VxVM 軟體 中描述的容體管理者安裝與配置設定
作業 |
指令 |
---|---|
建立和裝載叢集檔案系統。 | |
配置 IP Network Multipathing群組。 | |
(可選用) 變更節點的專用主機名稱。 | |
建立或修改 NTP 配置檔。 | |
(可選用) SPARC: 將 Sun Cluster 模組安裝至 Sun Management Center 軟體。 |
SPARC: 安裝用於 Sun Management Center 的 Sun Cluster 模組 Sun Management Center 說明文件 |
安裝協力廠商應用程式以及配置應用程式、資料服務和資源群組。 |
Sun Cluster Data Service Planning and Administration Guide for Solaris OS 協力廠商應用程式說明文件 |
對每個新增的叢集檔案系統執行此程序。 可從叢集中的任何節點存取叢集檔案系統。
當您建立檔案系統時,磁碟上的所有資料都會被銷毀。 請務必指定正確的磁碟裝置名稱。 如果您指定了錯誤的裝置名稱,則可能會消除不想刪除的資料。
如果您使用 SunPlex Manager 安裝了資料服務,則 SunPlex Manager 可能已經建立了一個或多個叢集檔案系統。
請確保已經安裝與配置容體管理程式軟體。
如需容體管理程式安裝程序,請參閱安裝和配置 Solstice DiskSuite/Solaris Volume Manager 軟體 或SPARC: 安裝與配置 VxVM 軟體 。
成為叢集中任何節點的超級使用者。
若要快速建立檔案系統,請在您想建立檔案系統之整體裝置的現行主要節點上成為超級使用者。
建立檔案系統。
針對 UFS 檔案系統,請使用 newfs(1M) 指令。
# newfs raw-disk-device |
SPARC: 對於 VxFS 檔案系統,請依照 VxFS 說明文件中提供的程序執行。
下表顯示 raw-disk-device 引數的名稱範例。 請注意,每個容體管理程式的命名慣例都不一樣。
容體管理程式 |
磁碟裝置名稱範例 |
說明 |
---|---|---|
Solstice DiskSuite 或 Solaris Volume Manager |
/dev/md/nfs/rdsk/d1 |
nfs 磁碟組內的原始磁碟裝置 d1 |
SPARC: VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg 磁碟群組內的原始磁碟裝置 vol01 |
無 |
/dev/global/rdsk/d1s3 |
原始磁碟裝置 d1s3 |
在叢集的每個節點上,建立叢集檔案系統的掛載點目錄。
每個節點都需要掛載點,即使不在該節點上存取叢集檔案系統亦如此。
為方便管理,請在 /global/device-group 目錄中建立裝載點。 這個位置可讓您輕易區分叢集檔案系統 (整體可用) 與本機檔案系統。
# mkdir -p /global/device-group/mountpoint |
與包含裝置的裝置群組名稱相同的目錄名稱
裝載叢集檔案系統的目錄名稱
在叢集的每個節點上,於掛載點的 /etc/vfstab 檔案內加入一個項目。
請參閱 vfstab(4) 線上援助頁,以取得詳細資訊。
在每個項目中,為您使用的檔案系統類型指定需要的掛載選項。 請參閱表 2–11 或表 2–12,以取得所需掛載選項的清單。
記錄對所有的叢集檔案系統是必要的。 然而,對於 Solstice DiskSuite 異動元式裝置或 Solaris Volume Manager 異動容體,請不要使用 logging 掛載選項。 異動元式裝置與異動容體提供它們自己的記錄。
另外, Solaris Volume Manager transactional-volume logging在即將發行的 Solaris 版本中,依計劃會從 Solaris 作業環境中移除 Solaris Volume Managertransactional-volume logging (以前為 Solstice DiskSuite trans-metadevice logging)。 Solaris UFS logging 提供與其相同的功能,且效能更優、系統管理需求更低、管理費用更少。
掛載選項 |
說明 |
---|---|
global |
必需的。 該選項使檔案系統在叢集的所有節點上均整體可見。 |
logging |
必需的。 該選項啟用記錄功能。 |
forcedirectio |
對於將存放 Oracle Parallel Server/Real Application Clusters RDBMS 資料檔、日誌檔與控制檔的叢集檔案系統,此選項是必需的。 註解 – 僅在基於 SPARC 的叢集中支援使用 Oracle Parallel Server/Real Application Clusters。 |
syncdir |
可選用。 如果您指定 syncdir,POSIX 相容檔案系統的行為一定會適合 write() 系統呼叫。 如果 write() 成功,則此裝載選項可確保磁碟上有足夠的空間。 如果沒有指定 syncdir,您所看到的行為將會與 UFS 檔案系統相同。 當未指定 syncdir 時,可以明顯地增進配置磁碟區塊 (例如在檔案中附加資料時) 的寫入效能。 然而,在某些情況下,若沒有 syncdir,在未關閉檔案之前,您不會發現空間不足 (ENOSPC)。 故障轉移之後,僅在很短的時間內就會看到開啟的 ENOSPC 關閉。 使用 syncdir 及 POSIX 運作方式,在關閉之前就可發現空間不足的狀況。 |
不要使用 onerror=umount 或 onerror=lock 掛載選項。 在叢集檔案系統上不支援這些掛載選項,原因如下︰
使用 onerror=umount 或 onerror=lock 掛載選項可能導致叢集檔案系統鎖定或不可存取。 如果叢集檔案系統發生檔案毀損,可能會出現這種情況。
onerror=umount 或 onerror=lock 掛載選項可能導致叢集檔案系統不可掛載。 由此,此情況可能導致使用叢集檔案系統的應用程式當機,或阻止終止應用程式。
一個節點可能需要重新啟動才能從這些狀態恢復。
Sun Cluster 軟體僅支援 onerror=panic 掛載選項。 您無須在/etc/vfstab 檔案中指定 onerror=panic 掛載選項。 如果未指定任何其他 onerror 掛載選項,此掛載選項便是預設值。
請參閱 mount_ufs(1M) 線上說明手冊,以取得關於 UFS 掛載選項的詳細資訊。
表 2–12 SPARC: VxFS 叢集檔案系統的掛載選項
掛載選項 |
說明 |
---|---|
global |
必需的。 該選項使檔案系統在叢集的所有節點上均整體可見。 |
log |
必需的。 該選項啟用記錄功能。 |
請參閱 VxFS mount_vxfs 線上說明手冊及Sun Cluster 系統管理指南 (適用於 Solaris 作業系統)中的「管理叢集檔案系統簡介」,以取得有關 VxFS 掛載選項的詳細資訊。
若要自動裝載叢集檔案系統,請將 mount at boot 欄位設定為 yes。
對每一個叢集檔案系統,確定其 /etc/vfstab 項目中的資訊在每一個節點上都相同。
請確定每一個節點的 /etc/vfstab 檔案中的項目是以相同次序列示裝置。
檢查檔案系統的啟動順序相依關係。
例如,考慮以下情況,phys-schost-1 裝載磁碟裝置 d0 在 /global/oracle, phys-schost-2 裝載磁碟裝置 d1 在 /global/oracle/logs。 若使用這種配置,phys-schost-2 只能在 phys-schost-1 啟動和裝載 /global/oracle 之後,啟動和裝載 /global/oracle/logs。
在叢集的任何節點上,執行 sccheck (1M) 公用程式。
sccheck 公用程式驗證掛載點是否存在。 該公用程式還驗證在叢集的所有節點上 /etc/vfstab 檔案項目是否正確。
# sccheck |
如果沒有發生錯誤,則不會傳回任何項目。
掛載叢集檔案系統。
# mount /global/device-group/mountpoint |
在叢集的每一個節點上,驗證叢集檔案系統已經裝載。
配置 IP Network Multipathing群組。
以下範例在 Solstice DiskSuite metadevice /dev/md/oracle/rdsk/d1 上建立一個 UFS 叢集檔案系統。
# newfs /dev/md/oracle/rdsk/d1 … (on each node) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type ; pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (save and exit) (on one node) # sccheck # mount /global/oracle/d1 # mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2000 |
在叢集的每一個節點上執行此作業。 如果您使用 SunPlex Manager 安裝了 Sun Cluster HA for Apache 或 Sun Cluster HA for NFS,SunPlex Manager 會為這些資料服務所使用的公用網路配接卡配置 IP Network Multipathing 群組。 您必須為其他公用網路配接卡配置 IP Network Multipathing 群組。
所有公用網路配接卡均必須屬於某個 IP Network Multipathing群組。
使已完成的公用網路工作表可用。
對 IPv4 位址執行IP Network Multipathing Administration Guide的「Deploying Network Multipathing」(對於 Solaris 8) 或者System Administration Guide: IP Services的「Administering Network Multipathing (Task)」(對於 Solaris 9) 中的程序。
依照這些附加需求在配置 Sun Cluster 時配置 IP Network Multipathing群組:
每一張公用網路配接卡必須屬於一個多重路徑群組。
對於包含兩個或多個配接卡的多重路徑群組,您必須為群組中的每一個配接卡配置測試 IP 位址。 如果多重路徑群組僅包含一個配接卡,則無需配置測試 IP 位址。
同一個多重路徑群組中所有配接卡的測試 IP 位址必須屬於單一 IP 子網路。
一般應用程式不得使用測試 IP 位址,因為測試 IP 位址並不具備高度可用性。
在 /etc/default/mpathd 檔案中,請勿將 TRACK_INTERFACES_ONLY_WITH_GROUPS 的值從 yes 變更為 no。
多重路徑群組的名稱沒有任何要求或限制。
是否要變更任何專用主機名稱?
如果否,請前進至步驟 4。
若是,請移至如何變更專用主機名稱 。
您是否在安裝 Sun Cluster 軟體之前,安裝了自己的 /etc/inet/ntp.conf 檔?
如果已安裝,請前進至步驟 5。
若否,請移至如何配置網路時間通訊協定 (Network Time Protocol,NTP) ,以安裝或建立 NTP 配置檔。
您是否在基於 SPARC 的系統上使用 Sun Cluster,並且要使用 Sun Management Center 來監視該叢集?
如果是的話,請至 SPARC: 安裝用於 Sun Management Center 的 Sun Cluster 模組 。
如果不是的話,請安裝協力廠商的應用程式,註冊資源種類,設定資源群組,並配置資料服務。 依照Sun Cluster Data Service Planning and Administration Guide for Solaris OS與應用程式軟體所隨附的說明文件中的程序執行。
如果您不想使用安裝 Sun Cluster 軟體期間所指定的預設專用主機名稱 (clusternodenodeid-priv),請執行此作業。
請勿在應用程式和資料服務已配置和啟動之後執行此程序。 否則,應用程式或資料服務可能會在更名之後,繼續使用舊的專用主機名稱而導致主機名稱衝突。 如果有任何應用程式或資料服務正在執行中,請停止它們之後再執行此程序。
成為叢集中某個節點的超級使用者。
啟動 scsetup(1M) 公用程式。
# scsetup |
從 Main Menu 中,選擇 Private hostnames。
從 Private Hostname Menu 中,選擇 Change a private hostname。
請遵循提示來變更專用主機名稱。
對要變更的每個專用主機名稱重複此步驟。
# scconf -pv | grep "private hostname" (phys-schost-1) Node private hostname: phys-schost-1-priv (phys-schost-3) Node private hostname: phys-schost-3-priv (phys-schost-2) Node private hostname: phys-schost-2-priv |
您是否在安裝 Sun Cluster 軟體之前,安裝了自己的 /etc/inet/ntp.conf 檔?
若否,請移至如何配置網路時間通訊協定 (Network Time Protocol,NTP) ,以安裝或建立 NTP 配置檔。
如果是,請前進至步驟 8。
您是否在基於 SPARC 的系統上使用 Sun Cluster,並且要使用 Sun Management Center 來監視該叢集?
如果是的話,請至 SPARC: 安裝用於 Sun Management Center 的 Sun Cluster 模組 。
如果不是的話,請安裝協力廠商的應用程式,註冊資源種類,設定資源群組,並配置資料服務。 請參閱應用程式軟體所隨附的說明文件與Sun Cluster Data Service Planning and Administration Guide for Solaris OS。
當 Sun Cluster 軟體安裝好之後,可執行此作業建立或修改 NTP 配置檔。 當您在現有的叢集內新增節點,或者當變更叢集中節點的專用主機名稱時,也必須修改 NTP 配置檔。
在叢集內配置 NTP 或任何時間同步化機能的主要需求,是所有的叢集節點必須要同步化成為相同的時間。 優先考慮節點之間的時間同步,個別節點上的時間正確性是次要的。 如果符合了此同步化的基本需求,您便可以隨意配置 NTP,使其完全滿足您的個人需要。
請參閱Sun Cluster 概念指南 (適用於 Solaris 作業系統),以取得關於叢集時間的進一步資訊。 請參閱 /etc/inet/ntp.cluster 範本檔,以取得如何設定 Sun Cluster 配置的 NTP 的其他準則。
您是否在安裝 Sun Cluster 軟體之前,安裝了自己的 /etc/inet/ntp.conf 檔?
成為叢集節點的超級使用者。
您已將自己的 /etc/inet/ntp.conf 檔案安裝在叢集節點上了嗎?
在叢集的一個節點上,編輯 /etc/inet/ntp.conf.cluster 檔中的專用主機名稱。
請勿將 ntp.conf.cluster 檔案更名為 ntp.conf。
如果節點上沒有 /etc/inet/ntp.conf.cluster 檔案,您可以查看先前安裝 Sun Cluster 軟體時是否有產生 /etc/inet/ntp.conf 檔案。 如果 /etc/inet/ntp.conf 檔案尚未存在於節點上,則 Sun Cluster 軟體會建立 /etc/inet/ntp.conf.cluster 檔案作為 NTP 配置檔。 如果有,請依照以下指示編輯該 ntp.conf 檔案的內容。
將此 NTP 配置檔複製到叢集中的所有節點上。
所有叢集節點上的 NTP 配置檔內容必須相同。
停止每一個節點上執行的 NTP 常駐程式。
等所有節點上停止 NTP 常駐程式的指令成功執行完畢後,才繼續進行步驟 7。
# /etc/init.d/xntpd stop |
重新啟動每一個節點上的 NTP 常駐程式。
您是否在基於 SPARC 的系統上使用 Sun Cluster,並且要使用 Sun Management Center 來監視該叢集?
如果是的話,請至 SPARC: 安裝用於 Sun Management Center 的 Sun Cluster 模組 。
如果不是的話,請安裝協力廠商的應用程式,註冊資源種類,設定資源群組,並配置資料服務。 請參閱應用程式軟體所隨附的說明文件與Sun Cluster Data Service Planning and Administration Guide for Solaris OS for Solaris OS。