下表列出配置叢集需要執行的作業。開始進行這些作業之前,請先確定已經完成以下工作。
叢集框架的安裝程序如 "安裝軟體"
"安裝和配置 Solstice DiskSuite 軟體" 中描述的容體管理者安裝與配置設定,或"安裝和配置 VxVM 軟體"
作業 |
相關資訊,請參閱 ... |
---|---|
建立和裝載叢集檔案系統。 | |
(可選用) 配置額外的公用網路配接卡。 | |
配置「公用網路管理」(PNM) 和設定 NAFO 群組。 | |
(可選用) 變更節點的專用主機名稱。 | |
編輯 /etc/inet/ntp.conf 檔案,更新節點名稱項目。 | |
(可選用)在 Sun Cluster 軟體安裝 Sun Management Center 模組。 |
"安裝 Sun Management Center 的 Sun Cluster 模組" Sun Management Center 文件 |
安裝協力廠商應用程式以及配置應用程式、資料服務和資源群組。 |
Sun Cluster 3.0 U1 Data Services Installation and Configuration Guide Sun Cluster 3.0 版次注意事項中的"配置表與範例" 協力廠商應用程式文件 |
在每個新增的個叢集檔案系統執行此程序。
當您建立檔案系統時,磁碟上的所有資料都會被銷毀。請務必指定正確的磁碟裝置名稱。如果您指定錯誤的裝置名稱,您可能會消除不想刪除的資料。
如果您使用 SunPlex Manager 安裝資料服務,而且有足夠的共用硬碟用來建立叢集檔案系統,或許已經有一個或多個叢集檔案系統存在了。
確認是否已經安裝容體管理者軟體,並且已經配置好了。
請參閱 "安裝和配置 Solstice DiskSuite 軟體" 或 "安裝和配置 VxVM 軟體",以取得容體管理員的安裝程序。
成為叢集中任何節點的超級使用者。
如果快速建立檔案系統,請在您要建立檔案系統的整體裝置現行主要節點上,成為超級使用者。
使用 newfs(1M) 指令建立檔案系統。
# newfs raw-disk-device |
下表顯示 raw-disk-device 引數的名稱範例。請注意,每一個容體管理者的命名慣例都不一樣。
表 2-7 原始磁碟裝置名稱範例
容體管理者 |
磁碟裝置名稱範例 |
說明 |
---|---|---|
Solstice DiskSuite |
/dev/md/oracle/rdsk/d1 |
oracle 磁碟組內的原始磁碟裝置 d1 |
VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg 磁碟群組內的原始磁碟裝置 vol01 |
無 |
/dev/global/rdsk/d1s3 |
原始磁碟裝置 d1s3 |
在叢集的每一個節點上建立叢集檔案系統的裝載點目錄。
每一個節點上都需要裝載點,即使該節點上的叢集檔案系統不會被存取。
為了方便管理,請在 /global/device-group 目錄內建立裝載點。這個位置可讓您容易區分叢集檔案系統是整體可用或本機檔案系統。
# mkdir -p /global/device-group/mountpoint |
與包含裝置的裝置群組名稱相同的目錄名稱
裝載叢集檔案系統的目錄名稱
在叢集的每一個節點,在 /etc/vfstab 檔加入裝載點的項目。
使用下列的必要裝載選項。
記錄對所有的叢集檔案系統是必要的。
Solaris UFS logging - 使用 global,logging 裝載選項。請參閱 mount_ufs(1M) 線上援助頁,以取得關於 UFS mount 選項的詳細資訊。
syncdir 裝載選項對於叢集檔案系統而言,並非必要。如果您指定 syncdir,您可以獲得保證的 POSIX 相容檔案系統的功能。如果沒有指定,您所看到功能,將會與 UFS 檔案系統相同。當未指定 syncdir 時,可以明顯地增進配置磁碟區塊的寫入效能,例如在檔案附加資料的情況時。然而,在某些情況下,若沒有 syncdir,在未關閉檔案之前,您不會發現空間不足。因為沒有指定 syncdir 而發生問題,這種機率非常小。使用 syncdir (和 POSIX 功功能),可在關閉之前發現空間不足狀況。
Solstice DiskSuite 異動複合裝置- 使用 global 裝載選項 (勿使用 logging 裝載選項)。請參閱 Solstice DiskSuite 文件,以取得有關設定異動複合裝置的資訊。
若要自動裝載叢集檔案系統,請將 mount at boot 欄位設定為 yes。
對每一個叢集檔案系統,確定其 /etc/vfstab 項目中的資訊在每一個節點上都是相同的。
請確定每一個節點的 /etc/vfstab 檔案中的項目是以相同順序列示裝置。
檢查檔案系統的啟動順序相依關係。
例如,考慮以下情況,phys-schost-1 裝載磁碟裝置 d0 於 /global/oracle, phys-schost-2 裝載磁碟裝置 d1 於 /global/oracle/logs。這種配置,phys-schost-2 只能在 phys-schost-1 啟動和裝載 /global/oracle 之後,啟動和裝載 /global/oracle/logs。
請參閱 vfstab(4) 線上援助頁,以取得詳細資訊。
在叢集的任一個節點上,驗證裝載點存在而且 /etc/vfstab 檔案項目在叢集的所有節點上都正確。
# sccheck |
如果沒有發生錯誤,則不會傳回任何項目。
在叢集內的任何節點上,裝載叢集檔案系統。
# mount /global/device-group/mountpoint |
在叢集的每一個節點上,驗證叢集檔案系統已經裝載。
您可以使用 df(1M) 或 mount(1M) 指令來列出已裝載的檔案系統。
您的叢集節點是否連接到一個以上的公用子網路?
如果是的話,請跳到 "如何配置額外的公用網路配接卡" 配置其他公用網路配接卡。
如果不是,請跳到 "如何配置公用網路管理 (PNM)" 配置 PNM 並設定 NAFO 群組。
以下範例在 Solstice DiskSuite metadevice /dev/md/oracle/rdsk/d1 上建立一個 UFS 叢集檔案系統。
# newfs /dev/md/oracle/rdsk/d1 ... (on each node) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (save and exit) (on one node) # sccheck # mount /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/ largefiles on Sun Oct 3 08:56:16 2000 |
如果您的叢集是連接到一個以上的公用子網路,您可以對次要子網路配置額外的公用網路配接卡。這項作業是任選的。
僅配置公用網路配接卡,而非私有網路配接卡。
從 Sun Cluster 3.0 版次注意事項中取得您已完成的"公用網路工作表"。
成為要配置額外公用網路配接卡之節點上的超級使用者。
建立名為 /etc/hostname.adapter 的檔案,其中 adapter 是配接卡名稱。
最每一個 NAFO 群組中,只能有一個配接卡存在 /etc/hostname.adapter 檔案。
鍵入公用網路配接卡 IP 位址的主機名稱至 /etc/hostname.adapter 檔案中。
例如,下列範例顯示對配接卡 hme3 所建立的 /etc/hostname.hme3 檔案,包含主機名稱 phys-schost-1。
# vi /etc/hostname.hme3 phys-schost-1 |
在每一個叢集節點上,確定 /etc/inet/hosts 檔案包含指定給公用網路配接卡的 IP 位址和對應的主機名稱。
以下範例顯示 phys-schost-1 的項目。
# vi /etc/inet/hosts ...192.29.75.101 phys-schost-1 ... |
如果您使用命名服務,此資訊也應該存在命名服務資料庫中。
在每個叢集節點上,啟動配接卡。
# ifconfig adapter plumb # ifconfig adapter hostname netmask + broadcast + -trailers up |
確認配接卡是正確配置。
# ifconfig adapter |
輸出應該包含配接卡的正確 IP 位址。
配置 PNM 和設定 NAFO 群組。
每一個受「資源群組管理員」(RGM) 管理的公用網路配接卡必須屬於 NAFO 群組。
在叢集的每一個節點上執行此工作。
所有的公用網路配接卡均必須屬於「網路配接卡故障轉移」(NAFO) 群組。此外,每一個節點每個子網路只能有一個 NAFO 群組。
從 Sun Cluster 3.0 版次注意事項中取得您已完成的"公用網路工作表"。
成為要配置為 NAFO 群組之節點的超級使用者。
建立 NAFO 群組。
# pnmset -c nafo-group -o create adapter [adapter ...] |
配置 NAFO 群組 nafo-group
建立新的 NAFO 群組,其包含一或多個公用網路配接卡
請參閱 pnmset(1M) 線上援助頁,以取得詳細資訊。
確認 NAFO 群組的狀態。
# pnmstat -l |
請參閱 pnmstat(1M) 線上援助頁,以取得詳細資訊。
是否要變更任何專用主機名稱?
如果是的話,請至 "如何變更專用主機名稱"。
如果不是的話,請跳到 "如何更新網絡時間協定 (NTP)" 更新 /etc/inet/ntp.conf 檔案。
以下範例會建立 NAFO 群組 nafo0,使用公用網路配接卡 qfe1 與 qfe5。
# pnmset -c nafo0 -o create qfe1 qfe5 # pnmstat -l group adapters status fo_time act_adp nafo0 qfe1:qfe5 OK NEVER qfe5 nafo1 qfe6 OK NEVER qfe6 |
如果您不要使用 Sun Cluster 軟體安裝期間所指定的預設專用主機名稱 (clusternodenodeid-priv),請執行此工作。
請勿在應用程式和資料服務已配置和啟動之後執行。否則,應用程式或資料服務可能會在更名之後,繼續使用舊的專用主機名稱而導致衝突。如果有任何應用程式或資料服務正在執行中,請停止它們之後再開始執行此程序。
成為叢集中某個節點的超級使用者。
啟動 scsetup(1M) 公用程式。
# scsetup |
若要使用專用主機名稱,請輸入 5 (專用主機名稱)。
若要變更專用主機名稱,請輸入 1 (變更專用主機名稱)。
請遵循提示來變更專用主機名稱。對要變更的每一個專用主機名稱重複進行。
檢查新的專用主機名稱。
# scconf -pv | grep 'private hostname' (phys-schost-1) Node private hostname: phys-schost-1-priv (phys-schost-3) Node private hostname: phys-schost-3-priv (phys-schost-2) Node private hostname: phys-schost-2-priv |
更新 /etc/inet/ntp.conf 檔案。
在每一個節點上執行此工作。
成為叢集節點的超級使用者。
編輯 /etc/inet/ntp.conf 檔案。
在標準叢集安裝中,scinstall(1M) 指令會複製範本檔案 ntp.cluster 到 /etc/inet/ntp.conf。但是如果在安裝 Sun Cluster 之前,ntp.conf 檔案已經存在,則 現存檔案維持不變。如果是使用其他方式安裝叢集套件,例如直接使用 pkgadd(1M),您需要配置 NTP。
移除叢集未用的所有專用主機名稱項目。
如果 ntp.conf 檔案包含不存在的專用主機名稱,當節點啟動而嘗試聯絡這些專用主機名稱時會產生錯誤訊息。
如果您在 Sun Cluster 軟體安裝之後變更了任何的專用主機名稱,請以新的專用主機名稱更新每個檔案項目。
如有需要,請進行修改以符合您的 NTP 需求。
在叢集內配置 NTP 或任何時間同步化機能的主要需求,是所有的叢集節點必須要同步化成為相同的時間。優先考慮節點之間的時間同步,個別節點上的時間正確性是次要的。您可以隨意配置 NTP 以符合您的個人需求,只要能夠符合同步化的基本要求即可。
請參閱 Sun Cluster 3.0 U1 概念,以取得關於叢集時間的詳細資訊。請參閱 ntp.cluster 範本,以取得如何設定 Sun Cluster 配置的 NTP。
重新啟動 NTP 常駐程式。
# /etc/init.d/xntpd stop # /etc/init.d/xntpd start |
是否要使用 Sun Management Center 配置資源群組或監視叢集?
如果不是的話,請安裝協力廠商的應用程式,註冊資源種類,設定資源群組,並配置資料服務。請參閱應用程式軟體與 Sun Cluster 3.0 U1 Data Services Installation and Configuration Guide 隨附的文件。