本節提供配置叢集上安裝之軟體的資訊與程序。
執行此程序,以建立叢集檔案系統。與本機檔案系統不同,叢集檔案系統可從叢集的任何節點存取。如果您已使用 SunPlex Installer 安裝資料服務,則 SunPlex Installer 可能已建立一個或多個叢集檔案系統。
當您建立檔案系統時,磁碟上的所有資料都會被銷毀。請確定您已指定正確的磁碟裝置名稱。如果您指定錯誤的裝置名稱,則您可能會消除不想刪除的資料。
對要建立的每個叢集檔案系統執行此程序。
請確保已經安裝與配置容體管理程式軟體。
如需容體管理程式安裝程序,請參閱安裝和配置 Solstice DiskSuite 或 Solaris 容體管理程式軟體或SPARC: 安裝和配置 VxVM 軟體。
成為叢集中任何節點的超級使用者。
若要快速建立檔案系統,請在您想建立檔案系統之整體裝置的現行主要節點上成為超級使用者。
建立檔案系統。
對於 UFS 檔案系統,請使用 newfs(1M) 指令。
# newfs raw-disk-device |
下表顯示 raw-disk-device 引數的名稱範例。請注意,每個容體管理程式的命名慣例都不一樣。
容體管理程式 |
磁碟裝置名稱範例 |
描述 |
---|---|---|
Solstice DiskSuite 或 Solaris 容體管理程式 |
/dev/md/nfs/rdsk/d1 |
nfs 磁碟組內的原始磁碟裝置 d1 |
SPARC:VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
oradg 磁碟群組內的原始磁碟裝置 vol01 |
無 |
/dev/global/rdsk/d1s3 |
原始磁碟裝置 d1s3 |
對於 Sun StorEdge QFS 檔案系統,請依照「Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide」中定義配置的程序執行。
SPARC:對於 VERITAS File System (VxFS) 檔案系統,請依照 VxFS 文件中提供的程序執行。
在叢集的每個節點上,建立叢集檔案系統的掛載點目錄。
每個節點上都需要裝載點,即使該節點上的叢集檔案系統不會被存取。
為方便管理,請在 /global/device-group/ 目錄中建立掛載點。這個位置可讓您輕易區分叢集檔案系統 (整體可用) 與本機檔案系統。
# mkdir -p /global/device-group/mountpoint/ |
與包含裝置的裝置群組名稱相同的目錄名稱
裝載叢集檔案系統的目錄名稱
在叢集的每一個節點上,將裝載點的項目加入 /etc/vfstab 檔。
請參閱 vfstab(4) 線上援助頁,以取得詳細資訊。
在每個項目中,指定您使用的檔案系統類型所必需的掛載選項。請參閱表 2–10、表 2–11 或表 2–12,以取得必需的掛載點之清單。
請勿將 logging 掛載選項用於 Solstice DiskSuite 作業事件元式裝置或 Solaris 容體管理程式 作業事件容體。異動元式裝置與異動容體提供它們自己的記錄。
另外, Solaris 容體管理程式 在即將發佈的 Solaris 發行版本中,依計劃會從 Solaris 作業系統中移除 異動容體記錄 (以前為 Solstice DiskSuite 異動複合裝置記錄)。Solaris UFS 記錄 提供與其相同的功能,且效能更優、系統管理需求更低、管理費用更少。
請參閱 mount_ufs(1M) 線上說明手冊,以取得有關 UFS 掛載選項的更多資訊。
表 2–11 SPARC: Sun StorEdge QFS 共用檔案系統的掛載參數
掛載參數 |
描述 |
---|---|
shared |
必需的。該選項指定此為共用檔案系統,因此,對叢集的所有節點均可視。 |
確定 /etc/vfstab 檔案中的設定與 /etc/opt/SUNWsamfs/samfs.cmd 檔案中的設定不衝突。/etc/vfstab 檔案中的設定會置換 /etc/opt/SUNWsamfs/samfs.cmd 檔案中的設定。
某些資料服務 (例如 Sun Cluster Support for Oracle Real Application Clusters) 對 QFS 具有掛載參數的附加需求和準則。請參閱資料服務使用手冊,以取得所有附加需求。
請參閱 mount_samfs(1M) 線上說明手冊,以取得有關 QFS 掛載參數的更多資訊。
/etc/vfstab 掛載參數不會啟動記錄。若要啟動記錄,請依照「Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide」中的程序執行。
掛載選項 |
描述 |
---|---|
global |
必需的。該選項使檔案系統在叢集的所有節點上均整體可見。 |
log |
必需的。該選項啟用記錄功能。 |
請參閱 VxFS mount_vxfs 線上說明手冊及「Sun Cluster 系統管理 指南(適用於 Solaris 作業系統)」中的「管理叢集檔案系統概觀」,以取得有關 VxFS 掛載選項的更多資訊。
若要自動掛載叢集檔案系統,請將 mount at boot 欄位設定為 yes。
針對每個叢集檔案系統,確定其 /etc/vfstab 項目中的資訊在每個節點上都相同。
請確定每一個節點的 /etc/vfstab 檔案中的項目是以相同次序列示裝置。
檢查檔案系統的啟動順序相依關係。
例如,考量以下情況:phys-schost-1 在 /global/oracle/ 上掛載磁碟裝置 d0,而 phys-schost-2 在 /global/oracle/logs/ 上掛載磁碟裝置 d1。使用此配置,phys-schost-2 僅在 phys-schost-1 啟動和掛載 /global/oracle/ 之後,方可啟動和掛載 /global/oracle/logs/。
在叢集的任何節點上,執行 sccheck(1M) 公用程式。
sccheck 公用程式驗證掛載點是否存在。該公用程式還驗證在叢集的所有節點上 /etc/vfstab 檔案項目是否正確。
# sccheck |
如果沒有發生錯誤,則不會傳回任何項目。
掛載叢集檔案系統。
# mount /global/device-group/mountpoint/ |
在叢集的每一個節點上,驗證叢集檔案系統已經裝載。
配置 IP 網路多重路徑連結群組。
以下範例在 Solstice DiskSuite metadevice /dev/md/oracle/rdsk/d1 上建立一個 UFS 叢集檔案系統。
# newfs /dev/md/oracle/rdsk/d1 … (on each node) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type ; pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (save and exit) (on one node) # sccheck # mount /global/oracle/d1 # mount … /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2000 |
在叢集的每一個節點上執行此作業。如果您已使用 SunPlex Installer 安裝 Sun Cluster HA for Apache 或 Sun Cluster HA for NFS,SunPlex Installer 會為這些資料服務所使用的公用網路配接卡配置 IP 網路多重路徑連結群組。您必須為其餘公用網路配接卡配置 IP 網路多重路徑連結群組。
所有公用網路配接卡均必須屬於某個 IP 網路多重路徑連結群組。
使已完成的公用網路工作表可用。
執行「IP Network Multipathing Administration Guide」(Solaris 8) 中的「Deploying Network Multipathing」或「System Administration Guide: IP Services」(Solaris 9) 中的「Administering Network Multipathing (Task)」中針對 IPv4 位址的程序。
依照這些附加需求在配置 Sun Cluster 時配置 IP 網路多重路徑連結群組:
每一張公用網路配接卡必須屬於一個多重路徑群組。
對於包含兩個或多個配接卡的多重路徑群組,您必須為群組中的每一個配接卡配置測試 IP 位址。如果多重路徑群組僅包含一個配接卡,則無需配置測試 IP 位址。
同一個多重路徑群組中所有配接卡的測試 IP 位址必須屬於單一 IP 子網路。
一般應用程式不得使用測試 IP 位址,因為測試 IP 位址並不具備高度可用性。
在 /etc/default/mpathd 檔案中,TRACK_INTERFACES_ONLY_WITH_GROUPS 的值必須為 yes。
多重路徑群組的名稱沒有任何要求或限制。
若要變更所有私有主機名稱,請移至如何變更私有主機名稱。
如果您在安裝 Sun Cluster 軟體之前未安裝自己的 /etc/inet/ntp.conf 檔案,請安裝或建立 NTP 配置檔案。
如果您是在基於 SPARC 的系統上使用 Sun Cluster,且希望使用 Sun Management Center 來監視叢集,則安裝 Sun Management Center 的 Sun Cluster 模組。
安裝協力廠商的應用程式、註冊資源類型、設定資源群組以及配置資料服務。
依照「Sun Cluster Data Services Planning and Administration Guide for Solaris OS」及應用程式軟體隨附的文件中的程序執行。
如果您不希望使用安裝 Sun Cluster 軟體期間所指定的預設私有主機名稱 (clusternodenodeid-priv),請執行此作業。
請勿在應用程式和資料服務已配置和啟動之後執行此程序。否則,應用程式或資料服務可能會在更名之後,繼續使用舊的私有主機名稱而導致主機名稱衝突。如果有任何應用程式或資料服務正在執行中,請停止它們之後再執行此程序。
在叢集的一個使用中節點上執行此程序。
成為叢集中某個節點的超級使用者。
啟動 scsetup(1M) 公用程式。
# scsetup |
從 [主功能表] 選擇功能表項目 [私有主機名稱]。
從 [私有主機名稱功能表] 選擇功能表項目 [變更私有主機名稱]。
請遵循提示來變更私有主機名稱。
對要變更的每個私有主機名稱重複此步驟。
# scconf -pv | grep "private hostname" (phys-schost-1) Node private hostname: phys-schost-1-priv (phys-schost-3) Node private hostname: phys-schost-3-priv (phys-schost-2) Node private hostname: phys-schost-2-priv |
如果您在安裝 Sun Cluster 軟體之前未安裝自己的 /etc/inet/ntp.conf 檔案,請安裝或建立 NTP 配置檔案。
(選擇性的) SPARC:配置 Sun Management Center 以監視叢集。
安裝協力廠商的應用程式、註冊資源類型、設定資源群組以及配置資料服務。
請參閱應用程式軟體隨附的文件與「Sun Cluster Data Services Planning and Administration Guide for Solaris OS」。
當 Sun Cluster 軟體安裝好之後,可執行此作業建立或修改 NTP 配置檔。當您在現有的叢集內新增節點,或者當變更叢集中節點的私有主機名稱時,也必須修改 NTP 配置檔。如果您已增加節點至單節點叢集,則必須確保所使用的 NTP 配置檔案已複製到原有的叢集節點。
在叢集內配置 NTP 或任何時間同步化機能的主要需求,是所有的叢集節點必須要同步化成為相同的時間。優先考慮節點之間的時間同步,個別節點上的時間正確性是次要的。如果符合了此同步化的基本需求,您便可以隨意配置 NTP,使其完全滿足您的個人需要。
請參閱「Sun Cluster 概念指南 (適用於 Solaris 作業系統)」,以取得有關叢集時間的進一步資訊。請參閱 /etc/inet/ntp.cluster 範本檔,以取得如何設定 Sun Cluster 配置的 NTP 的其他準則。
如果您在安裝 Sun Cluster 軟體之前已安裝自己的 /etc/inet/ntp.conf 檔案,則無需修改 ntp.conf 檔案。
請跳到步驟 8。
成為叢集節點的超級使用者。
如果您有自己的檔案,請將其複製到叢集的每個節點。
如果您沒有自己的 /etc/inet/ntp.conf 檔案以進行安裝,請將 /etc/inet/ntp.conf.cluster 檔案用做 NTP 配置檔案。
請勿將 ntp.conf.cluster 檔案重新命名為 ntp.conf。
如果節點上沒有 /etc/inet/ntp.conf.cluster 檔案,您可以從先前安裝的 Sun Cluster 軟體獲取 /etc/inet/ntp.conf 檔案。如果 /etc/inet/ntp.conf 檔案尚未存在於節點上,則 Sun Cluster 軟體會建立 /etc/inet/ntp.conf.cluster 檔案作為 NTP 配置檔。如果有,請依照以下指示編輯該 ntp.conf 檔案的內容。
將此 NTP 配置檔複製到叢集中的所有節點上。
所有叢集節點上的 NTP 配置檔內容必須相同。
停止每一個節點上執行的 NTP 常駐程式。
等所有節點上停止 NTP 常駐程式的指令成功執行完畢後,才繼續進行 步驟 7。
# /etc/init.d/xntpd stop |
重新啟動每一個節點上的 NTP 常駐程式。
(選擇性的) SPARC:配置 Sun Management Center 以監視叢集。
安裝協力廠商的應用程式、註冊資源類型、設定資源群組以及配置資料服務。
請參閱應用程式軟體隨附的文件與「Sun Cluster Data Services Planning and Administration Guide for Solaris OS」。