本文件提供下列關於 SunTM Cluster 3.0 5/02 軟體的資訊。
本文件的附錄附有安裝規劃工作表以及範例,可供安裝 Sun Cluster 3.0 5/02 軟體與資料服務時規劃之用。
下表列出需要更新並加入到 Sun Cluster 文件的新特性與功能。第二欄指出已更新過的文件。請與您的 Sun 業務代表洽詢,以取得支援的硬體與軟體的完整清單。
表 1-1 新的特性與功能
特性或功能 |
已更新的文件 |
---|---|
HAStoragePlus |
Sun Cluster 3.0 5/02 增補 包含 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 與 Sun Cluster 3.0 12/01 Data Services Developer's Guide 的更新,以支援 HAStoragePlus 資源類型。HAStoragePlus 資源類型可在 Sun Cluster 環境中讓本機檔案系統的可用性變高。Sun Cluster 3.0 5/02 Error Messages Guide 記載新的 HAStoragePlus 錯誤訊息。 |
Prioritized Service Management (RGOffload) |
Sun Cluster 3.0 5/02 增補 包含新程序以及 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 的更新,以支援 RGOffload 資源類型。RGOffload 可讓您的叢集藉由卸載包含非重要資料服務的資源群組,自動釋出節點的資源,以供重要資料服務使用。Sun Cluster 3.0 5/02 Error Messages Guide 記載新的 RGOffload 錯誤訊息。 |
Sun Cluster Security Hardening 對額外資料服務的支援 |
Sun Cluster Security Hardening 文件可以在 http://www.sun.com/security/blueprints 中找到。由此 URL 往下捲動至 Architecture 標題下,便可找到有關 Sun Cluster Security Hardening 的文章。請參閱 "Sun Cluster Security Hardening",以取得詳細資訊。 |
SunPlex Agent Builder 增強功能 |
Sun Cluster 3.0 5/02 增補 包含 Sun Cluster 3.0 12/01 Data Services Developer's Guide 的更新,以支援使用 SunPlex Agent Builder 建立一般資料服務 (GDS),即一種單獨預先編譯的資料服務。 |
解除 Sun Cluster 軟體的安裝 |
Sun Cluster 3.0 5/02 增補 包含新叢集軟體解除安裝的程序,以及 Sun Cluster 3.0 12/01 軟體安裝手冊 與 Sun Cluster 3.0 12/01 系統管理手冊 中相關程序的更新。scinstall(1M) 的新選項 -r 可以從節點中移除 Sun Cluster 軟體。 |
從任何舊版的 Sun Cluster 3.0 軟體升級至 Sun Cluster 3.0 5/02 軟體 |
請遵循 Sun Cluster 3.0 12/01 軟體安裝手冊 中"升級為 Sun Cluster 3.0 軟體更新版"的程序,升級所有舊版的 Sun Cluster 3.0 軟體。請參閱 "升級為 Sun Cluster 3.0 軟體更新版",以取得 Solaris 8 升級指示的更正說明。 |
本節包括新特性與功能的其它資訊。
Sun Cluster Security Hardening 使用 Sun BluePrintsTM 應用程式所建議的 Solaris 作業環境強化技術,以強化叢集的基本安全性。Solaris Security Toolkit 自動執行 Sun Cluster Security Hardening。
Sun Cluster Security Hardening 文件可以在 http://www.sun.com/security/blueprints 中找到。從這個 URL,向下捲動到 [Architecture] 標題,以找出名為"維護 Sun Cluster 3.0 軟體的安全"這篇文章。這份文件說明在 Solaris 8 環境中安全部署 Sun Cluster 3.0 的方法。此說明包括使用 Solaris Security Toolkit 以及 Sun 的安全專家推薦的其它最佳實務安全技術。
在 Solaris 8 環境中,Sun Cluster Security Hardening 支援下表列出的所有 Sun Cluster 3.0 5/02 資料服務。
Sun Cluster Security Hardening 只支援 Solaris 8 上的所有 Sun Cluster 3.0 5/02 資料服務。Sun Cluster 3.0 5/02 無法在 Solaris 9 上使用 Security Hardening。
資料服務代理程式 |
應用程式版本: 故障轉移 |
應用程式版本: 可延伸性 |
---|---|---|
Sun Cluster HA for iPlanet Messaging Server (訊息伺服器) |
6.0 |
4.1 |
Sun Cluster HA for iPlanet Web Server |
6.0 |
4.1 |
Sun Cluster HA for Apache |
1.3.9 |
1.3.9 |
Sun Cluster HA for SAP |
4.6D (32 和 64 位元) |
4.6D (32 和 64 位元) |
iPlanet Directory Server 所使用的 Sun Cluster HA |
4.12 |
N/A |
Sun Cluster HA for NetBackup |
3.4 |
N/A |
Sun Cluster HA for Oracle |
8.1.7 和 9i (32 和 64 位元) |
N/A |
Sun Cluster HA for Sybase ASE |
12.0 (32 位元) |
N/A |
Sun Cluster Support for Oracle Parallel Server/Real Application Clusters |
8.1.7 和 9i (32 和 64 位元) |
N/A |
Sun Cluster HA for DNS |
含 OS |
N/A |
Sun Cluster HA for NFS |
含 OS |
N/A |
本節說明 Sun Cluster 3.0 5/02 軟體支援的軟體與記憶體的需求。
作業環境與修補程式- 支援的 Solaris 版本和修補程式可以在下列 URL 中找到。
相關詳細資訊,請參閱"修補程式與必需的韌體層次"。
容體管理者
在 Solaris 8 上 - Solstice DiskSuiteTM 4.2.1 以及 VERITAS Volume Manager 3.1.1 和 3.2。
在 Solaris 9 上 - Solaris Volume Manager 和 VERITAS Volume Manager 3.2。
檔案系統 -
在 Solaris 8 上 - Solaris UFS 和 VERITAS File System 3.4。
在 Solaris 9 上 - Solaris UFS 和 VERITAS File System 3.4。
資料服務 (代理) - 請與您的 Sun 業務代表洽詢,以取得支援的資料服務之完整清單和應用程式版本。 請於使用 scinstall(1M) 公用程式安裝資料服務時,以及使用 scrgadm(1M) 公用程式登錄與資料服務關聯的資源類型時,指定資源類型名稱。
表 1-3 Sun Cluster 3.0 5/02 軟體所支援的資料服務
資料服務 |
Sun Cluster 資源類型 |
---|---|
Sun Cluster HA for Apache |
apache |
Sun Cluster HA for BroadVision One-To-One Enterprise |
bv |
Sun Cluster HA for DNS |
dns |
Sun Cluster HA for iPlanet Web Server |
iws |
Sun Cluster HA for NetBackup |
netbackup |
Sun Cluster HA for NFS |
nfs |
Sun Cluster HA for iPlanet Directory Server |
nsldap |
Sun Cluster HA for Oracle |
oracle |
Sun Cluster HA for SAP |
sap |
Sun Cluster HA for Sybase ASE |
sybase |
Sun Cluster Support for Oracle Parallel Server/Real Application Clusters |
N/A |
記憶體的需求 -Sun Cluster 3.0 軟體除了配置給節點正常作業的記憶體外,還需要額外的記憶體。額外的記憶體等於 128 MB 再加百分之十。例如,如果獨立的節點通常需要 1 GB 的記憶體,則您需要額外的 256 MB,才能符合記憶體的需求。
RSMAPI - Sun Cluster 3.0 軟體支援具 RSM 性能之互連上的 Remote Shared Memory Application Programming Interface (RSMAPI),如 PCI-SCI。
在下一個 Sun Cluster 功能版次中,將不支援「公用網路管理」(Public Network Management,PNM)。Sun Cluster 的網路配接卡監視和故障轉移將改由 Solaris IP Multipathing 來執行。
使用 PNM 來配置與管理網路介面卡監視與故障轉移。 然而,PNM 常駐程式以及 PNM 管理指令的使用者介面已經過時,並且將在下一個 Sun Cluster 功能版次中予以移除。因此,極力建議使用者不要開發倚賴此種介面的工具。 在下一個 Sun Cluster 功能版次中,目前版次支援的下列幾種介面可能會被移除或加以變更。
pnmd(1M)
pnmconfig(4)
pnmstat(1M)
pnmset(1M)
pnmrtop(1M)
pnmptor(1M)
若要在下一個 Sun Cluster 功能版次中,準備 IP Multipathing 的轉換,請考慮下列事項:
在下一個功能版次中,將會整合 IP Multipathing,屆時應該將 Solaris IP Multipathing 管理模型和介面用在網路可用性管理上。 請參閱 Solaris IP Multipathing Administration Guide,以取得詳細資料。
針對 IP Multipathing 群組,Solaris IP Multipathing 要求每一個介面都必須要有自己的 IP 位址,專供 IP Multipathing 常駐程式用來監視其運作狀況。因此,在轉換至 IP Multipathing 之前,您必須為 NAFO 群組中的每個介面 (作用中和備份) 準備一個額外的 IP 位址。
例如,假設 nafo0 是在 75 子網路上,且由 qfe0 和 qfe4 所組成。假設 /etc/hostname.qfe0 包含對應在 75 子網路上 IP 位址的主機名稱 schostname-1。為了以後能轉換至 IP Multipathing,必須再將 75 子網路上的兩個 IP 位址配置給 qfe0 和 qfe4。 請參閱 Solaris IP Multipathing Administration Guide,以取得詳細資料。
IP Multipathing 要求 IP Multipathing 群組中的所有介面要有不同的硬體 (MAC) 位址;也就是,將 eeprom 屬性 local-mac-address?設定成 true 才行。 不支援此種設定的介面卡包括:
X1018A SunSwiftTM SBus Adapter
X1059A SunFastEthernetTM Adapter 2.0 SBus Card
您必須準備好在升級至下一個功能版次時,將這些卡予以置換。單一配接卡 IP Multipathing 群組在缺乏對 local-mac-address?=true 的支援時,仍可能運作,但這種配置對高可用性的設定並不是最理想的。請參閱 Solaris IP Multipathing Administration Guide,以取得詳細資料。
Sun Cluster 3.0 5/02 使用者文件可以和 AnswerBook2 文件伺服器搭配,以 AnswerBook2TM 格式在線上使用。Sun Cluster 3.0 5/02 AnswerBook2 文件集由下列系列所組成。
Sun Cluster 3.0 5/02 系列包括下列手冊。
Sun Cluster 3.0 5/02 增補
Sun Cluster 3.0 5/02 Error Messages Guide
Sun Cluster 3.0 12/01 軟體安裝手冊
Sun Cluster 3.0 12/01 系統管理手冊
Sun Cluster 3.0 12/01 Hardware Guide
Sun Cluster 3.0 12/01 Data Services Developer's Guide
Sun Cluster 3.0 12/01 概念
Sun Cluster 3.0 12/01 資料服務系列包括下列手冊。
Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide
Sun Cluster 3.0 5/02 增補 包含 Sun Cluster 3.0 12/01 文件集的增補與變更內容。請配合 Sun Cluster 3.0 12/01 手冊 (同屬於 Sun Cluster 3.0 5/02 系列) 以及 Sun Cluster 3.0 12/01 資料服務系列使用這份補充資料。
此外,docs.sun.comSM 網站也可以讓您存取網路上的 Sun Cluster 文件。您可以瀏覽 docs.sun.com 文件,或者在下述網站搜尋特定的書名或主題。
Solaris 9 文件 CD-ROM 上不提供 AnswerBook2 文件伺服器軟體。如果您使用的是 Sun Cluster 3.0 5/02 軟體的 Solaris 9 版本,且尚無 AnswerBook2 伺服器軟體,請至 http://www.sun.com/software/ab2 下載 AnswerBook2 軟體、安裝說明與版次注意事項。或者,請使用 Sun Cluster 3.0 5/02 CD-ROM 上提供的 PDF 版文件。請參閱 "PDF 檔",以取得詳細資訊。
Solaris 8 作業環境版次包括 AnswerBook2 說明文件伺服器軟體。Solaris 8 文件 CD-ROM (與 Solaris 作業環境 CD-ROM 分開) 包括說明文件伺服器軟體。您需要 Solaris 8 說明文件 CD-ROM,才能安裝 AnswerBook2 說明文件伺服器。
如果您所在位置已經安裝 AnswerBook2 說明文件伺服器,您可以使用 Sun Cluster AnswerBooks 的同一個伺服器。否則,請於您所在位置的機器上安裝一個說明文件伺服器。 我們建議您使用管理主控台,作為您說明文件伺服器的叢集管理介面。請勿使用叢集節點當作 AnswerBook2 說明文件伺服器。
如需安裝 AnswerBook2 說明文件伺服器的資訊,請將 Solaris 8 說明文件 CD-ROM 載入到伺服器,然後檢視 「讀我」檔。
請將 Sun Cluster AnswerBook2 文件安裝到您安裝說明文件伺服器的相同伺服器的檔案系統上。 Sun Cluster AnswerBooks 包括後續安裝程序檔,可將文件自動加到現有的 AnswerBook 檔案庫。
請注意下列設定您的 AnswerBook2 伺服器時的需求。
您的伺服器系統必須有 34 MB 左右的可用磁碟空間來安裝伺服器軟體,以及 600 MB 左右的可用磁碟空間用來安裝說明文件集。
您必須有說明文件伺服器的 root 存取權 (超級使用者)。
AnswerBook2 伺服器必須具備 CD-ROM 光碟機。
如果您沒有已安裝的 AnswerBook2 說明文件伺服器,您需要 Solaris 8 作業環境說明文件 CD-ROM,它包括安裝 AnswerBook2 說明文件伺服器的軟體指示。
Sun Cluster 3.0 5/02 CD-ROM 中包含 Sun Cluster 3.0 5/02 系列。Sun Cluster 3.0 Agents 5/02 CD-ROM 包含 Sun Cluster 3.0 12/01 資料服務系列。
請使用此程序安裝用於 Sun Cluster 3.0 5/02 系列及 Sun Cluster 3.0 12/01 資料服務系列的 Sun Cluster AnswerBook 套裝軟體。
成為安裝有 AnswerBook2 說明文件伺服器之伺服器上的超級使用者。
如果您之前安裝了 Sun Cluster AnswerBooks,請移除舊的套裝軟體。
如果您從未安裝過 Sun Cluster AnswerBooks,請略過此步驟。
# pkgrm SUNWscfab SUNWscdab |
將 Sun Cluster 3.0 5/02 CD-ROM 或 Sun Cluster 3.0 Agents 5/02 CD-ROM 插入連接說明文件伺服器的 CD-ROM 光碟機。
「容體管理」常駐程式 vold(1M) 會自動裝載 CD-ROM。
變更目錄為包含 Sun Cluster AnswerBook 套裝軟體的 CD-ROM 位置。
AnswerBook 套裝軟體位於下列位置:
Sun Cluster 3.0 5/02 CD-ROM
/cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages
Sun Cluster 3.0 Agents 5/02 CD-ROM
/cdrom/scdataservices_3_0_u3/components/SunCluster_Data_Service_Answer_Book_3.0/Packages
使用 pkgadd(1) 指令來安裝套裝軟體。
# pkgadd -d . |
選取要安裝的 Sun Cluster 3.0 5/02 系列 (SUNWscfab) 和 Sun Cluster 3.0 12/01 資料服務系列 (SUNWscdab) 套裝軟體。
從 pkgadd 安裝選項功能表,選擇 heavy 以新增完整的套裝軟體到系統,同時更新 AnswerBook2 型錄。
選取 Sun Cluster 3.0 5/02 系列 (SUNWscfab) 或 Sun Cluster 3.0 12/01 資料服務系列 (SUNWscdab)。
每一片 CD-ROM 所附的文件集包括後續安裝程序檔,可將此系列新增至說明文件伺服器的資料庫,並重新啟動伺服器。現在您可以從說明文件伺服器檢視 Sun Cluster AnswerBooks。
現在 Sun Cluster CD-ROM 在 Sun Cluster 的說明文件集中,針對每一本書包括了一個 PDF 檔。
和 Sun Cluster AnswerBooks 類似,七個 PDF 檔位於 Sun Cluster CD-ROM 上,而一個 PDF 檔位於 Sun Cluster 代理程式 CD-ROM。PDF 檔名是書名的縮寫 (請參閱 表 1-4)。
PDF 檔位於下列位置:
Sun Cluster 3.0 5/02 CD-ROM
/cdrom/suncluster_3_0_u3/SunCluster_3.0/Docs/locale/C/PDF
Sun Cluster 3.0 Agents 5/02 CD-ROM
/cdrom/scdataservices_3_0_u3/components/SunCluster_Data_Service_Answer_Book_3.0/Docs/locale/C/PDF
CD-ROM |
PDF 縮寫 |
書名 |
---|---|---|
Sun Cluster 3.0 5/02 CD-ROM |
CLUSTSUPP |
Sun Cluster 3.0 5/02 增補 |
CLUSTINSTALL | Sun Cluster 3.0 12/01 軟體安裝手冊 | |
CLUSTNETHW | Sun Cluster 3.0 12/01 Hardware Guide | |
CLUSTAPIPG | Sun Cluster 3.0 12/01 Data Services Developer's Guide | |
CLUSTSYSADMIN |
Sun Cluster 3.0 12/01 系統管理手冊 |
|
CLUSTCONCEPTS |
Sun Cluster 3.0 12/01 概念 |
|
CLUSTERRMSG | Sun Cluster 3.0 5/02 Error Messages Guide | |
Sun Cluster 3.0 Agents 5/02 CD-ROM |
CLUSTDATASVC |
Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide |
下列限制適用於 Sun Cluster 3.0 5/02 版次:
遠端共用記憶體 (Remote Shared Memory,RSM) 傳輸類型 - 說明文件中會提到這些傳輸類型,但是並不支援。 如果您使用 RSMAPI,請指定 dlpi 作為傳輸類型。
可延伸的一致性介面 (Scalable Coherent Interface,SCI) - 不支援 SBus SCI 介面作為叢集交互連接。不過支援 PCI-SCI 介面。
邏輯網路介面 - 保留這些介面是要供 Sun Cluster 3.0 軟體使用。
磁碟路徑監視 - Sun Cluster 軟體只會監視作用中的磁碟路徑 (從目前的主要節點) 的故障情形。您必須手動監視磁碟路徑,以避免二度故障或遺失了到某法定裝置的路徑。
SunVTSTM - 並未支援。
多重主機磁帶、CD-ROM 和 DVD-ROM - 並未支援。
回送檔案系統 - Sun Cluster 3.0 軟體不支援在叢集節點上使用回送檔案系統 (loopback file system,LOFS)。
在叢集節點上執行用戶端應用程式 - 叢集節點上執行的用戶端應用程式不應對映到屬於 HA 資料服務一部分的邏輯 IP 位址。故障轉移期間,這些邏輯 IP 位址可能會消失,使用戶端失去連線。
在叢集節點上執行高優先順序處理的排程類別 - 並未支援。請勿在任何節點上執行任何這些程序:在高於一般優先順序的時間共用排程類別下執行的程序,或者是在即時排程類別下執行的程序。Sun Cluster 3.0 仰賴不在即時排程類別下執行的核心執行緒。 其它在高於一般優先順序或即時程序的時間共用排程下執行的程序,可以防止 Sun Cluster 核心執行緒得到所需的 CPU 循環。
檔案系統配額 - Sun Cluster 3.0 配置不支援配額。
Sun Cluster 3.0 軟體只可對下列資料服務提供服務:有提供 Sun Cluster 產品的資料服務或使用 Sun Cluster 資料服務 API 設定的資料服務。
請勿將叢集節點當作郵件伺服器來使用,因為 Sun Cluster 環境不支援 sendmail(1M) 子系統。郵件目錄必須位於非 Sun Cluster 節點上。
請勿將叢集節點配置為路由器 (閘道)。 如果系統當機,用戶端便無法找到替代的路由器,而且無法復原。
請勿將叢集節點配置為 NIS 或 NIS+ 伺服器。不過,叢集節點可以是 NIS 或 NIS+ 用戶端。
請勿使用 Sun Cluster 配置來提供高可用性啟動,或在用戶端系統上安裝服務。
請勿使用 Sun Cluster 3.0 配置來提供 rarpd 服務。
目前只有下列硬體平台支援 RAID 5:
Sun StorEdge A5x00/A3500FC 陣列。
Sun StorEdge T3 和 T3+ 陣列。不過,請注意如果您使用的是單一控制器配置中的陣列,則必須也使用資料冗餘的額外機制 (例如以主機為基礎的鏡像)。如果使用的是夥伴群組中的陣列,控制器便為冗餘,而且您可以使用並非以主機為基礎的鏡映之 RAID 5。
不支援「替代路徑」(Alternate Pathing,AP)。
如果您使用插槽 J4701 中具有 PCI 卡的 Sun EnterpriseTM 420R 伺服器,主機板必須為尾碼15 或者更高 (501-5168-15 或更高)。若要找到主機板的組件號碼和修訂層級,請查看最靠近 PCI 插槽 1 的主機板側邊。
叢集中的系統當機通常都發生在 Sun Enterprise 10000 伺服器的主機板上的插槽 0 中使用 UDWIS I/O 卡時;請勿在此伺服器的主機板上的插槽 0 中安裝 UDWIS I/O 卡 (請參閱 "BugId 4490386 "。)
在使用仲裁者的 Solstice DiskSuite 配置中,對磁碟組配置的仲裁者主機數目必須剛好是二。
DiskSuite Tool (metatool) 和 Sun Cluster 3.0 軟體不相容。
不支援使用 VxVM 動態多重路徑 (Dynamic Multipathing,DMP) 與 Sun Cluster 3.0 軟體來從相同節點管理多重路徑。
Sun Cluster 軟體上不支援簡易根磁碟群組 (在根磁碟的單一片段上所建立的 rootdg) 作為具有 VxVM 的磁碟類型。
不支援 Software RAID 5。
指令 umount -f 的行為和 umount 指令一樣,都沒有 -f 選項。 不支援強迫性的卸載。
非空白的目錄上不支援 unlink (1M) 這個指令。
指令 lockfs -d 不被支援。可使用 lockfs -n 作為解決方法。
叢集檔案系統不支援任何 Solaris 軟體的檔案系統功能,其功能會在檔案系統的名稱空間加一個通訊結束點。 因此,即使您能夠建立以叢集檔案系統路徑名稱命名的 UNIX 網域插槽,在節點故障轉移時,此插槽仍無法倖免。此外,您在叢集檔案系統上建立的任何先入先出檔或已命名的管道也無法提供全域性的存取,您也不應該嘗試從本機節點以外的任何節點使用 fattach。
不支援在使用 forcedirectio 裝載選項裝載的檔案系統外,執行二進位制。
下列 VxFS 特性在 Sun Cluster 3.0 配置中不受支援。
快速 I/O
快照
儲存核對點
快取建議 (可以使用,但是只有在指定的節點中才能看出效果)
VERITAS CFS (需要 VERITAS 叢集功能 & VCS)
叢集配置中支援的所有其他 VxFS 特性和選項,Sun Cluster 3.0 軟體也都支援。關於在叢集配置中支援和不支援的 VxFS 選項的詳細資料,請參閱 VxFS 說明文件和線上援助頁。
在 Sun Cluster 3.0 配置中不支援下列 VxFS 專用的裝載選項。
convosync (轉換 O_SYNC)
mincache
qlog、delaylog、tmplog
對於 VxFS 叢集檔案系統,您必須以全域方式從主要節點 (主控 VxFS 檔案系統所在磁碟的節點) 裝載及卸載叢集檔案系統,以確保作業可順利完成。若由次要節點執行 VxFS 叢集檔案系統裝載和卸載作業可能會失敗。
針對 VxFS 叢集檔案系統,您只能從主要節點發出 ioctl。如果您不知道管理指令是否涉及 ioctl,則請從主要節點發出指令。
若要管理 VxFS 叢集檔案系統,您必須從 VxFS 叢集檔案系統的主要節點執行所有的 VxFS 管理指令。
所有公用網路配接卡必須在 NAFO 群組中。
每一個節點的 IP 子網路只有一個 NAFO 群組存在。 Sun Cluster 3.0 軟體甚至不支援弱格式的 IP 分置,在這種格式中,有多個 IP 位址存在於同一個子網路上。
任何時候,NAFO 群組中只能有一個作用中的配接卡。
Sun Cluster 3.0 軟體不支援設定 local-mac-address?=true,該設定位於 OpenBootTM PROM 中。
本節說明特定資料服務的限制。沒有適用於所有資料服務的限制。
日後發行的「Sun Cluster 版次注意事項」將不會包含適用於特定資料服務的資料服務限制。但是,「Sun Cluster 版次注意事項」中將會收錄任何適用於所有資料服務的資料服務限制。
有關適用於特定資料服務的其它資料服務限制,請參閱 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide。
請切實遵照 Oracle Parallel Server/Real Application Cluster 的 Oracle Parallel Fail Safe/Real Application Clusters Guard 選項,因為在安裝 Sun Cluster 軟體之後將無法變更主機名稱。
關於此主機名稱/節點名稱限制的詳細資訊,請參閱 Oracle Parallel Fail Safe/Real Application Clusters Guard 文件。
如果 VERITAS NetBackup 用戶端是一個叢集,則只有一個邏輯主機可以配置為用戶端,因為只有一個 bp.conf 檔。
如果 NetBackup 用戶端是一個叢集,而叢集上的其中一個邏輯主機被配置為 NetBackup 用戶端,NetBackup 便不能備份實體主機。
在執行主伺服器的叢集上,主伺服器是唯一可以備份的邏輯主機。
備份媒體不可連接主伺服器,因此需要一個或多個媒體伺服器。
Sun Cluster 節點不可為相同叢集中節點上所主控的 Sun Cluster HA for NFS- 匯出檔案系統之 NFS 用戶端。這種 Sun Cluster HA for NFS 的交叉裝載是被禁止的。請使用此叢集檔案系統,以便在叢集節點中共用檔案。
在叢集本機執行的應用程式不能鎖定透過 NFS 匯出的檔案系統上的檔案。否則本機鎖定 (例如 flock(3UCB) 或 fcntl(2)) 可能會影響重新啟動鎖定管理員的能力 (lockd)。重新啟動期間,鎖定的本機程序可能會被給予一個鎖,預計讓遠端用戶端重新取回之用。這可能會導致不可預期的行為。
Sun Cluster HA for NFS 會要求所有的 NFS 用戶端裝載都是 "hard" 裝載。
至於 Sun Cluster HA for NFS,請勿使用網路資源的主機別名。使用主機別名的 NFS 用戶端裝載叢集檔案系統可能會遇到 statd 鎖定回復問題。
Sun Cluster 3.0 軟體不支援 Secure NFS 或在 NFS 使用 Kerberos,尤其是在 share_nfs(1M) 子系統使用 secure 和 kerberos 選項。但是,Sun Cluster 3.0 軟體不支援藉由新增 set nfssrv:nfs_portmon=1 項目到叢集節點上的 /etc/system 檔案的方式,使用 NFS 的安全埠。
下列準則適用於 Sun Cluster 3.0 5/02 版次。
下列準則可找出「錯誤 4499573」中提出的問題。在此已確定相關功能都可如預期般運作。如此,Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 就需反映出下列準則。
使用 I/O 用量大且在叢集中配置了大量磁碟的資料服務時,應用程式可能會因為磁碟故障期間 I/O 子系統中的重試作業而發生延遲的現象。I/O 子系統可能需要幾分鐘的時間來進行重試,以及從磁碟故障的狀況中復原。這個延遲狀況可能會導致 Sun Cluster 將應用程式轉移到另一個節點上,即使磁碟可能已逐漸自行恢復正常。為了避免在這些實例發生時進行故障轉移,請考慮增加資料服務預設的探測逾時時間。如果您需要更多關於增加資料服務逾時的資訊或說明,請與您當地的支援工程師聯絡。
在安裝 Solaris 和 Sun Cluster 之前,請先確認所有資料服務的需求。如果您不知道這些需求,可能會執行不正確的安裝程序,而必須重新完整安裝 Solaris 和 Sun Cluster 軟體。
例如,Oracle Parallel Server/Real Application Clusters 的 Oracle Parallel Fail Safe/Real Application Clusters Guard 選項對於在叢集中使用的主機名稱/節點名稱便有特殊需求。安裝 Sun Cluster 軟體之前必須符合這些需求,因為安裝 Sun Cluster 軟體之後就不能變更主機名稱。有關主機名稱/節點名稱的詳細資訊,請參閱 Oracle Parallel Fail Safe/Real Application Clusters Guard 說明文件。
本節提供關於 Sun Cluster 配置的修補程式資訊。
Sun Cluster 軟體是 PatchPro 早期的採用者,這是 Sun 的修補程式管理解決方案。希望能藉由此項新工具簡化各項選擇,並下載 Sun Cluster 軟體安裝或維護所需的修補程式。PatchPro 提供 Sun Cluster 特定的 Interactive Mode 工具,簡化修補程式的安裝,並提供 Expert Mode 工具,以最新的修補程式來維護您的配置。Expert Mode 對於不只想要得到高可用性和安全性修補程式,且想要得到所有最新修補程式的人來說,特別有用。
您必須擁有 SunSolveSM 的註冊帳戶,才能檢視與下載 Sun Cluster 產品所需的修補程式。 如果您沒有註冊的帳戶,請與您的 Sun 服務代表或銷售工程師聯絡,或透過 SunSolve 網站註冊。
若要存取 Sun Cluster 軟體的產品,請到 http://www.sun.com/PatchPro/,在 "Sun Cluster" 上按一下,然後選擇 [Interactive Mode] 或 [Expert Mode]。依照 PatchPro 工具的指示來說明您的叢集配置,並下載修補程式。
SunSolve OnlineSM 網站 24 小時提供您關於 Sun 產品的修補程式、軟體及韌體的最新資訊。請存取 SunSolve Online 網站,網址為 http://sunsolve.sun.com,以取得支援的軟體、韌體和修補程式修訂版的最新矩陣。
您必須擁有 SunSolve 的註冊帳戶,才能檢視與下載 Sun Cluster 產品所需的修補程式。 如果您沒有註冊的帳戶,請與您的 Sun 服務代表或銷售工程師聯絡,或透過 SunSolve 網站註冊。
您可以使用 SunSolve EarlyNotifierSM 服務,找到 Sun Cluster 3.0 修補程式的資訊。要檢視 EarlyNotifier 資訊,請登入 SunSolve,並且在主頁的上方選取 [Simple] 搜尋。 從 [Simple Search] 這一頁,按一下 [EarlyNotifier] 方塊並於搜尋條件方塊中輸入 Sun Cluster 3.0。您就可以進入 Sun Cluster 3.0 軟體的 EarlyNotifier 網頁。
在安裝 Sun Cluster 3.0 軟體和套用修補程式到叢集元件之前 (Solaris 作業系統、Sun Cluster軟體、容體管理者或資料服務軟體,或者磁碟硬體),請檢視 EarlyNotifier 資訊和所有修補程式隨附的 README 檔案。所有的叢集節點必須在相同的修補層次,叢集才能夠正常作業。
關於特定修補程序和管理修補程式的秘訣,請參閱 Sun Cluster 3.0 12/01 系統管理手冊。
若要檢視 mod_ssl 的授權條款、權責歸屬與版權聲明,請參閱 Sun Cluster 3.0 5/02 CD-ROM 上的 Sun Cluster 3.0「讀我」檔。
本節說明如何在 Sun Cluster 3.0 5/02 配置上將 Sun Management Center 2.1.1 升級為 Sun Management Center 3.0 軟體。
請執行本程序,在 Sun Cluster 3.0 5/02 配置上將 Sun Management Center 2.1.1 升級為 Sun Management Center 3.0 軟體。
取得下列資訊。
Sun Cluster 3.0 5/02 CD-ROM 或 CD-ROM 影像的路徑。在您升級 Sun Management Center 軟體之後,您可以使用 CD-ROM 重新安裝 Sun Management Center 模組套裝軟體。
Sun Management Center 3.0 說明文件。
Sun Management Center 3.0 修補程式和 Sun Cluster 模組套裝修補程式 (如果有的話)。 請參閱 "修補程式與必需的韌體層次",以取得修補程式和安裝指示的位置。
停止任何 Sun Management Center 程序。
作為超級使用者,從 表 1-5 中所列的位置移除 Sun Cluster 模組套裝軟體。
您必須從所有的位置移除所有的 Sun Cluster 模組套裝軟體。否則,Sun Management Center 軟體升級可能因為套裝軟體相依問題而失敗。在您升級 Sun Management Center 軟體之後,在步驟 5 中重新安裝這些套裝軟體。
# pkgrm module-package |
位置 |
要移除的套裝軟體 |
---|---|
每個叢集節點 |
SUNWscsam、SUNWscsal |
Sun Management Center 主控台機器 |
SUNWscscn |
Sun Management Center 伺服器機器 |
SUNWscssv |
Sun Management Center 輔助伺服器機器 |
SUNWscshl |
升級至 Sun Management Center 3.0 軟體。
請依照 Sun Management Center 3.0 說明文件中的程序進行升級。
作為超級使用者,將 Sun Cluster 模組套裝軟體重新安裝到 表 1-6 中所列位置。
對於 Sun Management Center 3.0 軟體,在主控台機器以及輔助伺服器機器上,安裝輔助伺服器套裝軟體 SUNWscshl。
# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages # pkgadd module-package |
位置 |
要安裝的套裝軟體 |
---|---|
每個叢集節點 |
SUNWscsam、SUNWscsal |
Sun Management Center 主控台機器 |
SUNWscscn、SUNWscshl |
Sun Management Center 伺服器機器 |
SUNWscssv |
Sun Management Center 輔助伺服器機器 |
SUNWscshl |
將任何 Sun Management Center 修補程式和 Sun Cluster 模組套裝軟體套用到叢集的每個節點。
在所有相關的機器上重新啟動 Sun Management Center 代理程序、伺服器和主控台程序。
請遵循 Sun Cluster 3.0 12/01 軟體安裝手冊 中"如何啟動 Sun Management Center" 的程序。
載入 Sun Cluster 模組。
請遵循 Sun Cluster 3.0 12/01 軟體安裝手冊 中"如何載入 Sun Cluster 模組" 的程序。
如果 Sun Cluster 模組之前已經載入,請載出此模組,然後重新載入,以清除伺服器上的所有快取警告定義。 要從主控台的 [Details] 視窗載出此模組,請選取 [Module] > [Unload Module]。
本節說明有關 Sun Management Center 3.0 的 Sun Cluster 3.0 模組的未付梓資訊。 有關升級為 Sun Management Center 3.0 的資訊,請參閱 "Sun Management Center 軟體升級"。
您可以從 Sun Cluster 模組主控台建立資源與資源群組、變更其狀態,或是將它們刪除。您可以開啟 Sun Cluster 的 [Details] 視窗來存取這些位置,並可從階層 (樹狀結構) 或拓撲檢視中選擇選項。
您可以從階層 (樹狀結構) 檢視的 [Resource Groups] 子層樹狀結構,來存取資源及資源群組建立精靈。
您可以從下列每一個表格中的即現式功能表,來建立、刪除資源及資源群組或變更其狀態。
即現式功能表項目及相關表格
從 [Resource Group Status] 表格及 [Resource Group Properties] 表格中存取:
連線
離線
刪除選取的資源群組
建立新資源群組
建立新資源
從 [Resource Status] 表格及 [Resource Configuration] 表格中存取:
啟用
停用
刪除資源
建立新資源群組
建立新資源
執行下列步驟來存取精靈,以建立資源或資源群組。
在階層 (樹狀結構) 或拓撲檢視中,連按兩下 Operating System>Sun 叢集。
在 [Resource Groups] 項目上按一下滑鼠右鍵,或在 [Resource Groups] 子層樹狀結構中的任一項目上按一下滑鼠右鍵。
從即現式功能表中選擇"建立新資源群組" 或 "建立新資源"。
執行以下程序以使用即現式功能表中的建立精靈,此建立精靈亦可由資源及資源群組表格中存取。
執行下列步驟以改變資源的狀態,或者刪除資源或資源群組。使用資源及資源群組表格中的即現式功能表,以啟用或停用資源、使資源群組上線或離線。
顯示資源或資源群組表格。
選取您要修改的項目。
若要刪除項目,請選取資源或資源群組加以刪除。
若要變更項目的狀態,請在該資源或資源群組列中選取狀態儲存格加以變更。
按一下滑鼠右鍵。
從即現式功能表中選擇以下一項作業來執行。
連線
離線
啟用
停用
刪除選取的資源群組
刪除資源
當您刪除或編輯資源或資源群組的狀態時,Sun Cluster 模組會啟動 [Probe Viewer] 視窗。如果 Sun Cluster 模組成功執行了您所選擇的作業,[Probe Viewer] 視窗便會顯示此訊息 Probe command returned no data。如果作業未順利完成,這個視窗就會顯示錯誤訊息。
請參閱 Sun Management Center 文件或相關的線上說明,以取得有關 Sun Management Center 的詳細資訊。
下列已知問題會影響到 Sun Cluster 3.0 5/02 版次的操作。如需最新資訊,請參閱線上 Sun Cluster 3.0 5/02 Release Notes Supplement,網址為 http://docs.sun.com。
問題摘要:在叢集中使用 Sun Enterprise 10000 伺服器時,發現到這些伺服器在使用 I/O 卡的特定配置時會當機。
解決方法:請勿在 Sun Enterprise 10000 叢集伺服器 SBus I/O 板的插槽 0 中安裝 UDWIS I/O 卡。
問題摘要:如果嘗試鎖定的裝置是全域裝置,如 /dev/global/rdsk/d4s0,記錄鎖定功能就無法在另一個節點上發生作用。
在任何特定節點上多次在背景中執行程式時,記錄鎖定功能似乎仍可正常運作。預期的行為是,在第一個程式副本鎖定裝置的一部分之後,程式的其他副本會封鎖,以等待該裝置解除鎖定。但是,如果程式是從不同的節點執行,當實際上程式應該封鎖,以等待裝置解除鎖定時,程式便可再次成功地鎖定裝置。
解決方法:沒有解決方法。
問題摘要:當 Sun Cluster 配置升級至 Solaris 8 10/01 軟體 (Sun Cluster 3.0 12/01 升級所需) 時,會回復 Apache 應用程式啟動和停止程序檔。如果 Apache 資料服務 (Sun Cluster HA for Apache) 已存在叢集上,且已配置為其預設配置 (/etc/apache/httpd.conf 檔案存在而 /etc/rc3.d/S50apache 檔案不在),Apache 應用程式就會自行啟動,而不需依賴 Sun Cluster HA for Apache 資料服務。這樣可避免資料服務啟動,因為 Apache 應用程式已於執行中。
解決方法:為每個節點執行下列程序。
在關閉節點以便升級之前,判斷下列連結是否已經存在,如果已經存在,請判斷檔名是否包含大寫的 K 或 S。
/etc/rc0.d/K16apache /etc/rc1.d/K16apache /etc/rc2.d/K16apache /etc/rc3.d/S50apache /etc/rcS.d/K16apache |
如果上述連結已經存在,而且檔名包含大寫的 K 或 S,便不需進行其它動作。否則,請在將節點升級至 Solaris 8 10/01 軟體之前,執行下一步驟的動作。
將節點升級至 Solaris 8 10/01 軟體之後,在重新啟動節點之前,以小寫的 k 或 s 重新命名已儲存的 Apache 連結,並將其移到旁邊。
# mv /a/etc/rc0.d/K16apache /a/etc/rc0.d/k16apache # mv /a/etc/rc1.d/K16apache /a/etc/rc1.d/k16apache # mv /a/etc/rc2.d/K16apache /a/etc/rc2.d/k16apache # mv /a/etc/rc3.d/S50apache /a/etc/rc3.d/s50apache # mv /a/etc/rcS.d/K16apache /a/etc/rcS.d/k16apache |
問題摘要:在 /etc/nsswitch.conf 檔案的 hosts 查找項目中,Sun Cluster HA for NFS 需有 files [SUCCESS=return],且所有叢集節點上的 /etc/inet/hosts 檔案中也需包含所有的叢集專用 IP 位址。
否則在公用網路故障時,Sun Cluster HA for NFS 就無法正確進行故障轉移。
解決方法: 在叢集的每一個節點上執行下列步驟。
修改 /etc/nsswitch.conf 檔案中的 hosts 項目,如此一來,在本機解析名稱的動作順利完成時,它便可馬上傳回成功訊息,而不會聯繫 NIS 或 DNS。
hosts: cluster files [SUCCESS=return] nis dns |
將所有叢集專用 IP 位址的項目加入 /etc/inet/hosts 檔案中。
您只需列出 /etc/nsswitch.conf 和 /etc/inet/hosts 檔案中,出現在實際專用介面上的 IP 位址。邏輯 IP 位址已可透過叢集的 nsswitch 程式庫加以解析。
若要列出實際的專用 IP 位址,請在任何叢集節點上執行下列指令。
% grep ip_address /etc/cluster/ccr/infrastructure |
這份清單中的每一個 IP 位址都必須指定一個不會與網域中其他主機名稱衝突的專用主機名稱。
Sun Cluster 軟體已要求所有叢集節點上的 /etc/inet/hosts 中需包含所有 HA IP 位址 (LogicalHostname/SharedAddresses),且 files 需列示在 nis 或 dns 前面。這個錯誤所處理的其他需求是將 [SUCCESS=return] 列在 files 後面,以及列出 /etc/inet/hosts 檔案中所有的叢集專用 IP 位址。
問題摘要:少數狀況下,以 qfe 配接卡結尾的專用互連傳輸路徑無法啟動。
解決方法: 執行下列步驟。
找出故障的配接卡。
Scstat -W 輸出應該顯示以該配接卡作為其路徑端點之一的所有傳輸路徑,且端點狀態為「faulted」或「waiting」。
使用 scsetup(1M) 從叢集配置中移除連接該配接卡的所有電纜。
然後再次使用 scsetup 從叢集配置中移除該配接卡。
將配接卡和電纜重新加入叢集配置中。
確認這些步驟是否解決了問題,以及路徑是否能夠重新啟動。
如果移除電纜和配接卡然後再重新將它們加入的步驟無效,則請重複執行這個程序幾次。如果還是沒有用,則請重新啟動配接卡有問題的節點。這個問題很有可能在節點重新啟動時就會消失了。在您重新啟動該節點前,請確定其餘的叢集是否有足夠的法定票數可承受重新啟動節點。
問題摘要:如果 rpc.pmfd 常駐程式監視的程序因處理 signal 而新增一個新的程序,則使用 pmfadm -k tag signal 可能會造成無窮迴圈。這個問題發生的原因可能是 pmfadm(1M) 在剛新增的程序正要加入標記的程序樹中時,嘗試刪除程序樹中的所有程序 (因為刪除前一個程序而導致加入一個程序)。
pmfadm -s tag signal 應該不會發生這個錯誤。
解決方法:請使用 pmfadm -s tag signal,不要使用 pmfadm -k。pmfadm 的 -s 選項不會和 -k 選項一樣有競爭狀況。
問題摘要:使用 forcedirectio 裝載選項和 mmap(2) 函數目前可能會造成資料毀損與系統當機或混亂。
解決方法:請遵守下列限制。
請勿以重新裝載時新增的 directio 裝載選項重新裝載檔案系統。
請勿使用 directio ioctl 在單一檔案上設定 directio 裝載選項。
如果需要使用 directio,請以 directio 選項裝載整個檔案系統。
問題摘要:如果嘗試在不同的裝載點上裝載相同的裝置,大部分的狀況下,系統都會抓到這個錯誤並讓第二個裝載作業失效。但是,在少數的狀況下,系統可能無法抓到這個錯誤,而讓兩個裝載作業都順利完成。這種錯誤只會在下列四個條件全部成立時發生。
兩項裝載作業同時執行
裝載同一裝置
在不同的兩個裝載點上裝載裝置
一個為全域裝載作業,而另一個為本機裝載作業。
解決方法:系統管理員在叢集上裝載檔案系統時應該特別小心。
問題摘要: 某些狀況下,scconf(1M) 指令可能無法指定 VxVM 磁碟群組的次要號碼,並會產生下列錯誤訊息 device is already in use in another device group。
解決方法:請執行下列步驟為磁碟群組指定新的次要號碼。
找出已在使用的次要號碼。
請注意已在使用的次要號碼以及下列輸出中所列出的主要號碼。
% ls -l /dev/vx/rdsk/*/* crw------- 1 root root 210,107000 Mar 11 18:18 /dev/vx/rdsk/fix/vol-01 crw------- 1 root root 210,88000 Mar 15 16:31 /dev/vx/rdsk/iidg/vol-01 crw------- 1 root root 210,88001 Mar 15 16:32 /dev/vx/rdsk/iidg/vol-02 crw------- 1 root root 210,88002 Mar 15 16:33 /dev/vx/rdsk/iidg/vol-03 crw------- 1 root root 210,88003 Mar 15 16:49 /dev/vx/rdsk/iidg/vol-04 crw------- 1 root root 210,13000 Mar 18 16:09 /dev/vx/rdsk/sndrdg/vol-01 crw------- 1 root root 210,13001 Mar 18 16:08 /dev/vx/rdsk/sndrdg/vol-02 |
選擇其它未使用的 1000 倍數當作新磁碟群組的基本次要號碼。
將未使用的次要號碼指定給發生錯誤的磁碟群組。
使用 vxdg 指令的 [reminor] 選項。
重試失敗的 scconf 指令。
問題摘要:在 Solaris 9 上,如果無法使用外部名稱服務,Sun Cluster HA for Oracle 資料服務的停止方法可能會在公用網路故障時逾時。Sun Cluster HA for Oracle 資料服務可使用 su(1M) 使用者指令來啟動及停止資料庫。
解決方法:在可成為 oracle_server 或 oracle_listener 資源之主要節點的每一個節點上,修改 /etc/nsswitch.conf 檔案使其包含 passwd、group、publickey 和 project 資料庫的下列項目。
passwd: files group: files publickey: files project: files |
這些修改可以確保 su(1M) 指令不會參照到 NIS/NIS+ 名稱服務,並確保在網路故障時,資料服務可正確啟動與停止。
問題摘要:使用 sendfile(3EXT) 會使節點混亂。
解決方法:除了不要使用 sendfile 以外,沒有其他解決方法。
問題摘要:在 Solaris 9 上,正要關閉的叢集節點可能會混亂,並在當機之前顯示下列訊息。
CMM: Shutdown timer expired. Halting |
解決方法:這個問題沒有解決方法。節點混亂沒有其他副作用,且不會有太大的不良影響。
問題摘要:如果 FilesystemMountPoints 延伸屬性中指定的檔案系統裝載點順序與 /etc/vfstab 檔案中指定的順序不同,HAStoragePlus 資源的建立就會失敗。
解決方法:請確定 FilesystemMountPoints 延伸屬性中指定的裝載點清單符合 /etc/vfstab 檔案中指定的順序。例如,如果 /etc/vfstab 檔案以 /a、/b 和 /c 的順序指定檔案系統項目, FilesystemMountPoints 順序就可以是 "/a,/b,/c" 或 "/a,/b" 或 "/a,/c",但不能是 "/a,/c,/b"。
問題摘要:如果 Failover_enabled 延伸屬性設為 FALSE,應該可以避免資源監視器啟動資源群組的故障轉移。
但是,如果監視器正嘗試重新啟動資源,而 START 或 STOP 方法失敗或逾時,則不論 Failover_enabled 的設定為何,監視器都會嘗試送交 (giveover)。
解決方法:這個錯誤沒有解決方法。
問題摘要: 如果發出裝置群組切換指令 (scswitch -D device-group),本機裝載的 VxFS 上的 Solstice DiskSuite 軟式分割區型裝置群組可能會觸發錯誤。
Solstice DiskSuite 會於內部執行可能需大量耗時的鏡像重新同步作業。鏡像重新同步作業會使冗餘性能降級。VxFS 會在這個造成錯誤監視器/應用程式 IO 失敗的情況中報告錯誤,而導致應用程式重新啟動。
解決方法:對於任何以 HAStoragePlus 配置的 Solstice DiskSuite 裝置群組,請勿手動切換裝置群組。而請切換資源群組,這樣就可以使系統執行正確無誤的裝置切換保護移轉。
或者,請在 VxVM 磁碟群組上配置本機裝載的 VxFS 檔案系統。
問題摘要:Sun Cluster 3.0 5/02 CD-ROM 中未包含某些錯誤訊息。
解決方法:這些錯誤訊息收錄於 "新的錯誤訊息"。
問題摘要:如果從非主要 (次要) 節點執行常駐於 Sun Cluster global Solstice DiskSuite/VxVM 裝置群組之檔案系統上的 fsck(1M),便會失敗。雖然舊版 Solaris 上可能會顯示這個行為,Solaris 9 上也已注意到這個問題。
解決方法:只能在主要節點上啟動 fsck 指令。
問題摘要:如果配置了多個接收程式資源,並以相同的接收程式名稱啟動,Sun Cluster HA for Oracle 接收程式資源便無法正確執行。
解決方法:在叢集上執行的多個接收程式請勿使用相同的接收程式名稱。
問題摘要: 從 Sun Cluster 3.0 下的 VxVM 磁碟群組分離診測裝置可能會使叢集節點混亂,並出現下列混亂字串。
panic[cpu2]/thread=30002901460: BAD TRAP: type=31 rp=2a101b1d200 addr=40 mmu_fsr=0 occurred in module "vxfs" due to a NULL pointer dereference |
解決方法:在您分離診測裝置之前,請卸載對應的檔案系統。
問題摘要:當資源群組屬性 auto_start_on_new_cluster 設為 false 時,不會發生故障轉移。
解決方法:每次重新啟動整個叢集時,針對 auto_start_on_new_cluster 屬性設定成 false 的資源群組,將 auto_start_on_new_cluster 屬性設成 true,然後再將 auto_start_on_new_cluster 重設成 false。
# scrgadm -c -g rgname -y auto_start_on_new_cluster=true # scrgadm -c -g rgname -y auto_start_on_new_cluster=false |
問題摘要:針對全域裝載的 VxFS 檔案系統,/etc/mnttab 檔案系統可能無法顯示全域選項。
解決方法:如果在叢集的所有節點上找到所指定檔案系統的 /etc/mnttab 項目,則表示該檔案系統是全域裝載的檔案系統。
問題摘要:重新裝載全域裝載的檔案系統時,並不會更新 /etc/mnttab。
解決方法:沒有解決方法。
問題摘要:搭配 HAStoragePlus 使用 Sun Cluster HA for NFS 時,區塊鎖定不會在故障轉移和切換保護移轉時回復。如此,lockd 便無法由 Sun Cluster HA for NFS 重新啟動,而造成 nfs_postnet_stop 方法失敗,導致叢集節點當機。
解決方法:請勿在 HAStoragePlus 上使用 Sun Cluster HA for NFS。叢集檔案系統不會發生這個問題,因此在叢集檔案系統上配置 Sun Cluster HA for NFS 可當作一種解決方法。
問題摘要:在節點上刪除 HTTP 伺服器時,會在節點上留下一個 PID 檔。下次啟動 HTTP 伺服器時,會檢查 PID 檔是否存在,並檢查是否有任何擁有該 PID 的程序已在執行 (kill -0)。由於 PID 會回收,因此可能會有其它程序具有與最後一個 HTTP 伺服器 PID 相同的 PID。這樣會造成 HTTP 伺服器啟動失敗。
解決方法:如果 HTTP 伺服器啟動失敗,並顯示如下述的錯誤訊息,請手動移除 HTTP 伺服器的 PID 檔,以正確重新啟動。
Mar 27 17:47:58 ppups4 uxwdog[939]: could not log PID to PidLog /app/iws/https-schost-5.example.com/logs/pid, server already running (No such file or directory) |
問題摘要:為了避免使用如搭配 Sun Cluster 軟體的 VxFS 的 VERITAS 產品時發生混亂,需增加預設執行緒堆疊的大小。
解決方法:在 /etc/system 檔案中放入下列各行,以增加堆疊大小。
set lwp_default_stksize=0x6000 set svc_default_stksize 0x8000 |
NFS 作業需有 svc_default_stksize 項目。
安裝 VERITAS 套裝軟體後,請確認 VERITAS 是否未將類似的陳述式加入 /etc/system 檔案中。若是如此,則應使用較高的值將它們解析成一個陳述式。
問題摘要:在大於兩個節點且具有已排序節點清單的裝置群組中,如果要移除的節點不是排序清單中的最後一個,則 scconf 輸出將會顯示關於節點清單的部分資訊。
解決方法:
若要避免讓使用者遇到這個錯誤,請從節點清單中列出的最後一個節點開始,一個一個移除節點,直到移除了選定的節點為止。然後再將其它節點重新加入裝置群組中。
一旦遇到這個錯誤,若要修復叢集狀態,請執行下列程序:
停止使用該裝置群組的所有服務 (檔案系統、資料服務)。
使用 scsetup(1m) 從叢集的記憶體中註銷 (移除) 裝置群組。注意:請完整保留裝置群組物件本身。
使用 scsetup(1m) 重新註冊裝置群組 (當作新的裝置群組註冊),並加入正確的節點清單。
將移除的節點重新加入裝置群組中時,請明確指定包括所有有效節點的排序清單。
問題摘要:關閉其中一個 Sun StorEdge T3 Array 並執行 scshutdown 之後,重新啟動兩個節點會使叢集成為非運作狀態。
解決方法:如果複本的一半已經遺失,請執行下列步驟:
確定叢集處於叢集狀態。
強制匯入磁碟組。
# metaset -s set-name -f -C take |
刪除毀損的複本。
# metadb -s set-name -fd /dev/did/dsk/dNsX |
釋放磁碟組。
# metaset -s set-name -C release |
至此,便可裝載及使用檔案系統。但是,複本中的冗餘尚未回復。如果複本的另一半也遺失了,便無法將鏡像回復到完整的狀態。
請在採取上述修復程序之後重新建立資料庫。
本節討論文件、線上說明或線上援助頁中已知的錯誤或遺漏之處,以及更正這些問題的步驟。
SunPlex Manager 的線上說明中的一個附註是不正確的。這個附註出現在 Oracle 資料服務的安裝程序中。修正如下。
錯誤:
注意:如果 shmsys 和 semsys 變數 (在 /etc/system 檔案中) 沒有項目離開,安裝 SunPlex Manager 套裝軟體時,這些變數的預設值會被自動放進 /etc/system 檔案中。系統必須重新啟動。檢查 Oracle 安裝文件,以確定這些值適合您的資料庫。
修訂:
注意:如果 /etc/system 檔案中的 shmsys 和 semsys 變數沒有項目離開,安裝 Oracle 資料服務時,這些變數的預設值會自動放進 /etc/system 檔案中。系統必須重新啟動。檢查 Oracle 安裝文件,以確定這些值適合您的資料庫。
Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 中關於「安裝 Sun Cluster HA for Oracle 套裝軟體」 的介紹段落並未針對使用具有 64 位元 Oracle 執行 Sun Cluster HA for Oracle 的叢集使用者所需的額外套裝軟體加以討論。 下節修正 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 中,關於「安裝 Sun Cluster HA for Oracle 套裝軟體」的介紹段落。
根據您的配置,使用 scinstall(1M) 公用程式,在您的叢集上安裝下列套裝軟體的其中一個,或者兩個都安裝。請勿使用 -s 選項以非交談性 scinstall,來安裝所有的資料服務套裝軟體。
SUNWscor: 執行 Sun Cluster HA for Oracle 的叢集 (針對 32 位元或 64 位元的 Oracle)
SUNWscorx: 執行 Sun Cluster HA for Oracle 的叢集 (針對 64 位元的 Oracle)
SUNWscor 是 SUNWscorx. 的必備套裝軟體
如果您已經將 SUNWscor 資料服務套裝軟體安裝為起始 Sun Cluster HA for Oracle 安裝的一部份,請到第 30 頁"註冊和配置 Oracle 的 Sun Cluster HA"。否則,請使用下列程序來安裝 SUNWscor 和 SUNWscorx 套裝軟體。
Sun Cluster 軟體上不支援簡易根磁碟群組作為具有 VERITAS Volume Manager 的磁碟類型。因此,如果您要執行 Sun Cluster 3.0 12/01 系統管理手冊 中「如何復原非封裝式根 (/) 檔案系統 (VERITAS Volume Manager)」的程序,則您應該跳過步驟 9,這個步驟要您判斷根磁碟群組 (rootdg) 是否位於根磁碟的單一片段上。您應該完成步驟 1 到步驟 8,跳過步驟 9,然後繼續執行步驟 10 到程序結束。
以下為 Sun Cluster 3.0 12/01 軟體安裝手冊 中,「如何升級為 Sun Cluster 3.0 軟體更新版次」步驟 8 的更正內容。
(選擇性的) 升級 Solaris 8 軟體。
暫時註解出 /etc/vfstab 檔案中的所有整體裝置項目。
這樣做可以防止 Solaris 升級作業試圖裝載整體裝置。
關閉要升級的節點。
# shutdown -y -g0 ok |
遵循您想升級的 Solaris 8 Maintenance Update 版本的安裝手冊中的指示來進行。
出現重新啟動的提示時,請勿重新啟動節點。
取消註解您在 /a/etc/vfstab 檔案中的 步驟 a 中註解出的所有全域裝置項目。
安裝任何 Solaris 軟體修補程式和硬體相關的修補程式,並下載硬體修補程式中包含的任何必要韌體。
如果有任何修補程式需要重新開機,請依 步驟 f 所述,在非叢集模式下將節點重新開機。
將節點重新開機,進入非叢集模式。
請在指令中加入雙破折號 (--) 和兩個雙引號 (")。
# reboot -- "-x" |
下列升級程序包含從 Sun Cluster 3.0 12/01 軟體安裝手冊 版次以來的程序變更與更正。
若要將 Sun Cluster 2.2 升級為 Sun Cluster 3.0 5/02 軟體,請執行下列程序,而不要執行收錄於 Sun Cluster 3.0 12/01 軟體安裝手冊 中的版本。
成為叢集節點的超級使用者。
如果您是使用 CD-ROM 進行安裝,請將 Sun Cluster 3.0 5/02 CD-ROM 插入節點的 CD-ROM 光碟機內。
如果容體常駐程式 vold(1M) 為執行狀態而且配置可管理 CD-ROM 裝置,則會自動將 CD-ROM 裝載到 /cdrom/suncluster_3_0_u3 目錄。
變更至 /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages 目錄。
# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages |
如果您的容體管理者是 Solstice DiskSuite,請在每一個節點上安裝最新的 Solstice DiskSuite 仲裁者套件 (SUNWmdm)。
重新配置仲裁者。
在每一個節點上,關閉 rpc.pfmd 常駐程式。
# /etc/init.d/initpmf stop |
將第一個節點升級為 Sun Cluster 3.0 5/02 軟體。
這些程序將視此節點為第一個安裝的節點。
在要升級的第一個節點上,切換至 /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools 目錄。
# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools |
升級叢集軟體框架。
# ./scinstall -u begin -F |
指定這是叢集內第一個安裝的節點
請參閱 scinstall(1M) 線上援助頁,以取得詳細資訊。
在第一個節點上安裝所有的 Sun Cluster 修補程式。
請參閱 Sun Cluster 3.0 5/02 版次注意事項,以得知修補程式和安裝指示的位置。
重新啟動節點。
# shutdown -g0 -y -i6 |
當第一個節點重新開機進入叢集模式時,它會建立叢集。
將第二個節點升級為 Sun Cluster 3.0 5/02 軟體。
在第二個節點上,切換至 /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools 目錄。
# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools |
升級叢集軟體框架。
# ./scinstall -u begin -N node1 |
指定叢集中第一個安裝的節點名稱,不是要安裝的第二個節點的名稱
請參閱 scinstall(1M) 線上援助頁,以取得詳細資訊。
在第二個節點上安裝所有的 Sun Cluster 修補程式。
請參閱 Sun Cluster 3.0 5/02 版次注意事項,以得知修補程式和安裝指示的位置。
重新啟動節點。
# shutdown -g0 -y -i6 |
在兩個節點均重新啟動之後,從任一節點確認兩個節點均為叢集成員。
-- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online |
請參閱 scstat(1M) 線上援助頁,以取得有關顯示叢集狀態的詳細資訊。
選擇要成為法定裝置的共用磁碟。
您可以使用這兩個節點共用的任何磁碟作為法定裝置。 在任一節點上,使用 scdidadm(1M) 指令判斷共用磁碟的裝置 ID (DID) 名稱。您是在 步驟 5 中指定此裝置名稱,即使用 -q globaldev=DIDname 選項來scinstall。
# scdidadm -L |
配置共用的法定裝置。
啟動 scsetup(1M) 公用程式。
# scsetup |
出現「Initial Cluster Setup」畫面。
如果法定數目的設定程序被中斷或無法順利完成,請重新執行 scsetup。
在「Do you want to add any quorum disks?」的提示中,配置共用的法定裝置。
兩個節點的叢集會一直維持安裝模式,直到配置了共用法定裝置為止。等 scsetup 公用程式配置法定裝置之後,便會顯示「Command completed successfully」。
在「Is it okay to reset "installmode"?」提示訊息出現時,回答 Yes。
當 scsetup 公用程式設定叢集的法定配置與票數之後,便會顯示「Cluster initialization is complete」訊息,且公用程式會回到 Main Menu。
結束 scsetup 公用程式。
在任何一個節點上,檢查裝置與節點的法定配置。
您不需是超級使用者便能執行這個指令。
% scstat -q |
在任意節點上,確認已取消了叢集安裝模式。
您不必是超級使用者,才能夠指定這個指令。
% scconf -p | grep 'Cluster install mode:' Cluster install mode: disabled |
更新目錄路徑。
移至 Sun Cluster 3.0 12/01 軟體安裝手冊 中的「如何更新根環境」。
下列範例顯示將兩個節點的叢集從 Sun Cluster 2.2 升級至 Sun Cluster 3.0 5/02 軟體的開始程序。叢集節點名稱是 phys-schost-1 (第一個安裝的節點),以及 phys-schost-2 (加入 phys-schost-1 所建立的叢集)。 容體管理者是 Solstice DiskSuite,且兩個節點都是用來做為磁碟組 schost-1 的仲裁者主機。
(Install the latest Solstice DiskSuite mediator package on each node) # cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Packages # pkgadd -d . SUNWmdm (Restore the mediator) # metaset -s schost-1 -t # metaset -s schost-1 -a -m phys-schost-1 phys-schost-2 (Shut down the rpc.pmfd daemon) # /etc/init.d/initpmf stop (Begin upgrade on the first node and reboot it) phys-schost-1# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools phys-schost-1# ./scinstall -u begin -F phys-schost-1# shutdown -g0 -y -i6 (Begin upgrade on the second node and reboot it) phys-schost-2# cd /cdrom/suncluster_3_0_u3/SunCluster_3.0/Tools phys-schost-2# ./scinstall -u begin -N phys-schost-1 phys-schost-2# shutdown -g0 -y -i6 (Verify cluster membership) # scstat (Choose a shared disk and configure it as the quorum device) # scdidadm -L # scsetup Select Quorum>Add a quorum disk (Verify that the quorum device is configured) # scstat -q (Verify that the cluster is no longer in install mode) % scconf -p | grep 'Cluster install mode:' Cluster install mode: disabled |
本程序完成 scinstall(1M) 升級程序 (始於 "如何升級叢集軟體套件")。請在叢集的每一個節點上執行這些步驟。
成為叢集中每一個節點的超級使用者。
您的容體管理者是否為 VxVM?
如果不是,請至 步驟 3。
如果是,請安裝 VxVM 及所有的 VxVM 修補程式,並建立根磁碟群組 (rootdg),如同您在進行全新安裝時所做的一般。
若要安裝 VxVM 並封裝根磁碟,請執行 Sun Cluster 3.0 12/01 軟體安裝手冊 中「如何安裝 VERITAS Volume Manager 軟體與封裝根磁碟」的程序。若要鏡像根磁碟,請執行 Sun Cluster 3.0 12/01 軟體安裝手冊 中「如何對封裝根磁碟進行鏡像」的程序。
若要在本機的非根磁碟上安裝 VxVM 並建立 rootdg,請執行 Sun Cluster 3.0 12/01 軟體安裝手冊 中「如何只安裝 VERITAS Volume Manager 軟體」與「如何在非根磁碟上建立 rootdg 磁碟群組」的程序。
您是否要升級 Sun Cluster HA for NFS?
如果是的話,請至 步驟 4。
如果不是,請至 步驟 5。
完成 Sun Cluster 3.0 軟體的升級,並轉換 Sun Cluster HA for NFS 配置。
如果您不要升級 Sun Cluster HA for NFS,請改執行 步驟 5。
將 Sun Cluster 3.0 Agents 5/02 CD-ROM 插入節點的 CD-ROM 光碟機內。
此步驟是假設容體常駐程式 vold(1M) 為執行狀態,而且配置可管理 CD-ROM 裝置。
完成該節點上的叢集軟體升級。
# scinstall -u finish -q globaldev=DIDname \ -d /cdrom/scdataservices_3_0_u3 -s nfs |
指定法定裝置的裝置 ID (DID) 名稱
指定 CD-ROM 影像的目錄位置
指定要配置的 Sun Cluster HA for NFS 資料服務
可能會產生類似下列的錯誤訊息。 您可以忽略它。
** Installing Sun Cluster - Highly Available NFS Server ** Skipping "SUNWscnfs" - already installed |
退出 CD-ROM。
在兩個節點上均完成時,會停用叢集安裝模式,而且指定所有的法定票數。
請跳到 步驟 6。
完成各節點上 Sun Cluster 3.0 軟體的升級工作。
如果您要升級 Sun Cluster HA for NFS,則改為執行 步驟 4。
# scinstall -u finish -q globaldev=DIDname |
指定法定裝置的裝置 ID (DID) 名稱
如果您要升級 Sun Cluster HA for NFS 以外的任何資料服務,請配置那些資料服務的資源,如同進行全新安裝時所做的一般。
請參閱 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 以瞭解程序。
如果您的容體管理者是 Solstice DiskSuite,請在任何一個節點上將之前的磁碟裝置群組啟動成為線上。
# scswitch -z -D disk-device-group -h node |
執行切換
指定磁碟裝置群組的名稱,這對 Solstice DiskSuite 軟體而言與磁碟組名稱相同
指定作為磁碟裝置群組的主要叢集節點的名稱
在任一節點,啟動之前的資料服務資源群組成為線上。
此時,Sun Cluster 2.2 邏輯主機已經轉換成 Sun Management Center 3.0 資源群組,而且邏輯主機的名稱後面也會加上 -lh。例如,名為 lhost-1 的邏輯主機會升級為名為 lhost-1-lh 的資源群組。請在以下指令內使用這些轉換過的資源群組名稱。
# scswitch -z -g resource-group -h node |
指定要啟動的資源群組的名稱
您可使用 scrgadm -p 指令顯示叢集內所有資源類型和資源群組的清單。scrgadm -pv 指令不僅會將清單顯示出來,同時會顯示其它詳細資訊。
如果您是使用 Sun Management Center 來監視您的 Sun Cluster 配置,請安裝 Sun Management Center 的 Sun Cluster 模組。
確認所有的節點均已加入叢集。
請至 Sun Cluster 3.0 12/01 軟體安裝手冊 中的 "如何確認叢集成員"。
下列範例顯示將兩個節點的叢集從 Sun Cluster 2.2 升級為 Sun Cluster 3.0 5/02 軟體的完成程序。 叢集節點的名稱為phys-schost-1 以及 phys-schost-2,裝置群組名稱為 dg-schost-1 and dg-schost-2,而資料服資源群組的名稱為 lh-schost-1 與 lh-schost-2。scinstall 指令會自動轉換 Sun Cluster HA for NFS 的配置。
(Finish upgrade on each node) phys-schost-1# scinstall -u finish -q globaldev=d1 \ -d /cdrom/scdataservices_3_0_u3 -s nfs phys-schost-2# scinstall -u finish -q globaldev=d1 \ -d /cdrom/scdataservices_3_0_u3 -s nfs (Bring device groups and data service resource groups on each node online) phys-schost-1# scswitch -z -D dg-schost-1 -h phys-schost-1 phys-schost-1# scswitch -z -g lh-schost-1 -h phys-schost-1 phys-schost-1# scswitch -z -D dg-schost-2 -h phys-schost-2 phys-schost-1# scswitch -z -g lh-schost-2 -h phys-schost-2 |
Sun Cluster 3.0 12/01 系統管理手冊 中「如何使節點離開維護狀態」的程序不適用於兩個節點的叢集。下一個版次會針對兩個節點的叢集所適用的程序進行評估。
下節說明 scgdevs 指令的行為。目前這項資訊並未包含在 scgdevs(1M) 線上援助頁中。
新增資訊:
從本機節點呼叫的 scgdevs(1M) 會在遠端節點上以非同步的方式執行其工作。因此,本機節點上指令執行完成,並不代表它已經完成了整個叢集的工作。
Name 區段中出現錯誤。Name 區段的內容應為:
sap_ci、SUNW.sap_ci 與 SUNW.sap_ci_v2 - Sun Cluster HA 針對 SAP 中央實例的資源類型實施。
Description 區段中出現錯誤。Description 區段的內容應為:
「資源群組管理員」(RGM) 管理 Sun Cluster 軟體的 SAP 資料服務。將 Sun Cluster HA for SAP 中央實例配置為邏輯主機名稱資源以及 SAP 中央實例資源。
Name 區段中出現錯誤。Name 區段的內容應為:
sap_as、SUNW.sap_as - Sun Cluster HA 針對 SAP 所實施作為故障轉移資料服務的資源類型。
sap_as、SUNW.sap_as_v2 - Sun Cluster HA 針對 SAP 所實施作為故障轉移資料服務或延伸資料服務的資源類型。
Description 區段中出現錯誤。Description 區段的內容應為:
「資源群組管理員」(RGM) 管理 Sun Cluster 軟體的 SAP 資料服務。如果您要將 Sun Cluster HA for SAP 應用程式伺服器設定為故障轉移資料服務,請將它配置成邏輯主機名稱資源與 SAP 應用程式伺服器資源。如果您要將 SAP 應用程式伺服器所使用的 Sun Cluster HA 設定成可延伸資料服務,請將它配置成可延伸 SAP 應用程式伺服器資源。
rg_properties(5) 線上援助頁中應加入下列新資源群組屬性。
Auto_start_on_new_cluster
這個屬性可控制「資源群組管理員」是否會在形成新叢集時自動啟動資源群組。
預設值為 TRUE。如果設定為 TRUE,「資源群組管理員」就會在叢集的所有節點同時啟動時,嘗試自動啟動資源群組以達成 Desired_primaries。 如果設定為 FALSE,則叢集重新開機時,「資源群組」並不會自動啟動。
種類: 選擇性預設值: 實際調整時機: 任何時候
Sun Cluster 3.0 5/02 CD-ROM中未包含下列錯誤訊息。
360600:Oracle UDLM package wrong instruction set architecture.
目前安裝的 Oracle UDLM 套裝軟體對節點目前啟動的模式而言是不正確的指令集架構 (例如,Oracle UDLM 是 64 位元 (sparc9) 而節點目前是以 32 位元模式啟動 (sparc))。
解決方案:請從 Oracle 取得並安裝適用於系統指令集架構的 Oracle UDLM 套裝軟體,或是以與 Oracle UDLM 目前版本相容的指令集架構啟動節點。
800320:Fencing %s from shared disk devices.
已執行保留作業以隔離非成員節點以及叢集節點之間共用的磁碟。
解決方案:無。
558777:Enabling failfast on all shared disk devices.
將會設定保留 failfast,如此一來,如果其他節點將共用這些磁碟群組的節點隔離,這些磁碟群組就會關閉。
解決方案:無。
309875:Error encountered enabling failfast.
嘗試在其他節點共用的磁碟上啟用保留 failfast 時發生錯誤。
解決方案:這是內部錯誤。請儲存所有節點上 /var/adm/messages、/var/cluster/ucmm/ucmm_reconf.log 和 /var/cluster/ucmm/dlm*/logs/* 的內容,並聯絡您的 Sun 服務代表。