本章提供如何準備管理叢集以及使用 Sun Cluster 管理工具的程序相關資訊。
Sun Cluster 為高度可用的環境,可確保一般使用者可以使用重要的應用程式。系統管理員的工作是保證 Sun Cluster 穩定與正常運作。
開始管理作業前,請先自己熟悉「Sun Cluster 軟體安裝指南(適用於 Solaris 作業系統)」和「Sun Cluster 概念指南 (適用於 Solaris 作業系統)」中的規劃資訊。Sun Cluster 管理分成數項作業,於下列手冊中分別敘述:
定期或每天執行的管理以及維護叢集的標準作業。本指南將說明這些作業。
資料服務作業,例如安裝、配置以及變更特性。「Sun Cluster Data Services Planning and Administration Guide for Solaris OS」中對這些作業進行了說明。
服務作業,包括新增或修復儲存體或網路硬體。「Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS」中對這些作業進行了說明。
在大部分情況下,您可以一面執行 Sun Cluster 管理作業,同時叢集保持在運轉中,並且影響只限於一個節點。對於需要關閉整個叢集才能執行的程序,請將關機時間排定在下班後,以使對系統造成的影響降至最小。如果您計劃關閉叢集或叢集節點,請先通知使用者。
Sun Cluster 配置中不支援以下 Solaris 作業系統功能:
請勿使用 Solaris 10 Service Management Facility (SMF) 管理介面來啟用或停用以下 Sun Cluster 服務。
Sun Cluster 服務 |
FMRI |
pnm |
svc:/system/cluster/pnm:預設 |
cl_event |
svc:/system/cluster/cl_event:預設 |
cl_eventlog |
svc:/system/cluster/cl_eventlog:預設 |
rpc_pmf |
svc:/system/cluster/rpc_pmf:預設 |
rpc_fed |
svc:/system/cluster/rpc_fed:預設 |
rgm |
svc:/system/cluster/rgm:預設 |
scdpm |
svc:/system/cluster/scdpm:預設 |
cl_ccra |
svc:/system/cluster/cl_ccra:預設 |
scsymon_srv |
svc:/system/cluster/scsymon_srv:預設 |
spm |
svc:/system/cluster/spm:預設 |
cl_svc_cluster_milestone |
svc:/system/cluster/cl_svc_cluster_milestone:預設 |
cl_svc_enable |
svc:/system/cluster/cl_svc_enable:預設 |
網路多重路徑 |
svc:/system/cluster/network-multipathing |
您可以使用圖形化使用者介面 (GUI) 或指令行來執行管理作業。下節提供 GUI 及指令行工具的簡介。
Sun Cluster 支援圖形化使用者介面 (GUI) 工具,您可以使用這些工具對叢集執行各種管理作業。這些 GUI 工具為 SunPlexTM Manager 與 Sun Management Center (如果您在以 SPARC 為基礎的系統上使用 Sun Cluster)。請參閱第 10 章, 利用圖形化使用者介面管理 Sun Cluster,以取得更多資訊及有關配置 SunPlex Manager 和 Sun Management Center 的程序。關於如何使用這些工具的具體資訊,請參閱各個 GUI 的線上說明。
您可以透過 scsetup(1M) 公用程式互動式執行大部分 Sun Cluster 管理作業。只要可行,本指南中的管理程序會使用 scsetup 來敘述。
您可以透過 scsetup 公用程式來管理以下的 Main Menu 項目。
法定數目
資源群組
叢集互連
裝置群組和容體
私人主機名稱
新節點
其他叢集特性
您可以透過 scsetup 公用程式來管理以下的 Resource Group Menu 項目。
建立資源群組
新增網路資源至資源群組中
增加資料服務資源至資源群組
連線/離線或保護移轉資源群組
啟用/停用資源
變更資源群組的特性
變更資源的特性
從資源群組中移除資源
移除資源群組
從資源清除 stop_failed 錯誤旗標
表 1-1 列出了用於管理 Sun Cluster 的其他指令。請參閱線上援助頁,以取得詳細資訊。
表 1–1 Sun Cluster 指令行介面指令
指令 |
描述 |
---|---|
啟動叢集的遠端主控台存取。 |
|
用來在「IP 網路多重路徑」(IP Network Multipathing) 群組中,將 IP 位址從一張配接卡切換到另一張。 |
|
檢查並驗證 Sun Cluster 配置,以確保叢集的最基本配置是可行的。 |
|
更新 Sun Cluster 配置。-p 選項可列出叢集配置資訊。 |
|
提供裝置 ID 配置的管理存取權。 |
|
執行整體裝置名稱空間管理程序檔。 |
|
安裝和配置 Sun Cluster 軟體,指令可以互動或非互動方式執行。-p 選項顯示 Sun Cluster 軟體的發行版本與套裝軟體版本資訊。 |
|
管理資源類型的註冊、資源群組的建立,以及資源群組內資源的啟動。-p 選項可顯示安裝的資源、資源群組以及資源類型的資訊。 備註 – 當執行 scrgadm 時,資源類型、資源群組及資源特性名稱不需區分大小寫。 |
|
執行可產生 scconf 指令及其各類選項的互動式叢集配置公用程式。 |
|
關閉整個叢集。 |
|
提供叢集狀態的快照。 |
|
執行影響到資源群組與磁碟裝置群組的節點主檔與狀態的變更。 |
另外,也可以使用指令來管理 Sun Cluster 的容體管理程式部分。這些指令根據叢集中所使用的特定容體管理程式來決定,可能是 Solstice DiskSuiteTM、VERITAS Volume Manager 或 Solaris Volume ManagerTM。
本節說明如何開始準備管理叢集。
在您的 Sun Cluster 配置延伸時,記錄您的網站特有的硬體層面。當您變更或升級叢集以節省管理人力時,請參考您的硬體說明文件。將連接各種不同叢集元件的電纜和連線做標記,也可使管理更為簡易。
藉由保留您的原始叢集配置及後續變更的記錄,減少協力廠商服務提供者為您的叢集提供服務時所需的時間。
您可以使用稱為管理主控台的專屬 SPARC 工作站來管理使用中的叢集。通常,您是在管理主控台上安裝與執行「叢集控制面板」(CCP) 與圖形化使用者介面 (GUI) 工具。如需有關 CCP 的更多資訊,請參閱如何從遠端登入 Sun Cluster。如需有關安裝 Sun Management Center 與 SunPlex Manager GUI 工具之叢集控制面板模組的說明,請參閱「Sun Cluster 軟體安裝指南(適用於 Solaris 作業系統)」。
管理主控台並非叢集節點。管理主控台是用來以遠端方式存取叢集節點,透過公用網路或以網路為基礎的終端機集線器。
如果您的 SPARC 叢集由 Sun EnterpriseTM 10000 伺服器組成,則必須從管理主控台登入系統服務處理器 (SSP)。使用 netcon.1M 指令連線。netcon 連接 Sun Enterprise 10000 網域的預設方法是透過網路介面。如果無法存取網路,您可透過設定 -f 選項,在「專用」模式中使用 netcon。您也可以在正常的 netcon 階段作業中傳送 ~*。如果網路無法使用,上述解決方案的任一個均可提供您切換到串列介面的選項。
Sun Cluster 不需要專用的管理主控台,但是使用主控台可提供以下優點:
在同一機器上將主控台和管理工具分組,達到中央化叢集管理
透過 Enterprise Services 或服務供應商提供更快速的問題解決方案
請定期備份您的叢集。雖然 Sun Cluster 提供了一個在儲存裝置中含有備份資料的 HA 環境,但請勿以 Sun Cluster 取代定期備份的動作。Sun Cluster 可承受多重故障,但它無法保障因使用者、程式錯誤或災難性故障所造成的資料遺失。因此,您必須有備份程序來防止資料的遺失。
下列資訊必須納入作為備份作業的一部分。
所有的檔案系統分割區
所有資料庫資料,如果您執行 DBMS 資料服務
所有叢集磁碟的磁碟分割區資訊
md.tab 檔,如果您使用 Solstice DiskSuite/Solaris Volume Manager 當作容體管理程式的話
表 1–2 提供了管理叢集的起始點。
表 1–2 Sun Cluster 3.1 4/04 管理工具
作業 |
工具 |
文件 |
---|---|---|
從遠端登入叢集 |
使用 ccp 指令啟動「叢集控制面板」(CCP)。然後選取下列一種圖示:cconsole(1M)、crlogin(1M) 或 ctelnet(1M)。 | |
以互動方式配置叢集 |
啟動 scsetup(1M) 公用程式。 | |
顯示 Sun Cluster 版次編號與版本資訊 |
搭配 -p 或 -pv 選項使用 scinstall(1M) 指令。 | |
顯示已安裝的資源、資源群組與資源類型 備註 – 當執行 scrgadm 時,資源類型、資源群組及資源特性名稱不需區分大小寫。 |
使用 scrgadm(1M) -p 指令。 | |
以圖形方式監視叢集元件 |
使用 SunPlex Manager。 |
SunPlex Manager 線上說明 |
以圖形方式管理某些叢集元件 |
使用 SunPlex Manager 或 Sun Management Center 的 Sun Cluster 模組 (僅在基於 SPARC 的系統上之 Sun Cluster 中可用)。 |
Sun Management Center 線上說明的 SunPlex Manager 或 Sun Cluster 模組 |
檢查叢集元件的狀態 |
使用 scstat(1M) 指令。 | |
檢查公用網路上「IP 網路多重路徑群組」(IP Network Multipathing Group) 的狀態 |
搭配 -i 選項使用 scstat(1M) 指令。 | |
檢視叢集配置 |
使用 scconf(1M) -p 指令。 | |
檢查整體裝載點 |
使用 sccheck(1M) 指令。 | |
查看 Sun Cluster 系統訊息 |
檢查 /var/adm/messages 檔。 |
「System Administration Guide: Advanced Administration」中的「Viewing System Messages」 |
監視 Solstice DiskSuite 的狀態 |
使用 metastat 指令。 |
Solstice DiskSuite/Solaris Volume Manager 說明文件 |
如果執行 Solaris 8 的話,則監視 VERITAS Volume Manager 的狀態。 |
使用 vxstat 或 vxva 指令。 |
VERITAS Volume Manager 說明文件 |
如果執行 Solaris 9 的話,則監視 Solaris Volume Manager 的狀態。 |
使用 svmstat 指令 |
叢集控制面板 (CCP) 為 cconsole(1M)、crlogin(1M) 和 ctelnet(1M) 工具提供了一個啟動台。這三種工具都會開啟連到一組指定節點的視窗。這個多重視窗連接是由每一個指定節點的主視窗以及一個共通視窗所組成。在共通視窗中輸入便可將指令輸入傳到每一個主視窗,讓您能夠同時在所有叢集節點上執行指令。請參閱 ccp(1M) 和 cconsole(1M) 線上手冊,以取得更多資訊。
請在開始執行 CCP 之前,確認是否符合以下必備條件。
在管理主控台上安裝 SUNWccon 套件。
確定管理主控台上的 PATH 變數包含 Sun Cluster 工具目錄,/opt/SUNWcluster/bin 和 /usr/cluster/bin。您可以透過設定 $CLUSTER_HOME 環境變數來改變工具目錄的位置。
如果您使用終端機集線器的話,請配置 clusters 檔、serialports 檔及 nsswitch.conf 檔。這些檔案可以是 /etc 檔或 NIS/NIS+ 資料庫。請參閱 clusters(4) 和 serialports(4),以取得更多資訊。
判斷是否有 Sun Enterprise 10000 伺服器平台。
如果沒有,請繼續執行步驟 3。
如果有,請使用 netcon 指令來登入並連上「系統服務處理器」(SSP)。建立連線之後,請輸入 Shift~@ 以解除主控台鎖定並取得寫入權。
啟動 CCP 啟動台。
請從管理主控台,輸入下列指令。
# ccp clustername |
出現 CCP 啟動台。
要啟動叢集的遠端階段作業,請按一下 CCP 啟動台中的 cconsole、crlogin 或 ctelnet 圖示。
您也可以從指令行啟動 cconsole、crlogin 或 ctelnet 階段作業。
scsetup(1M) 公用程式使您可以互動式配置叢集的法定數目、資源群組、叢集傳輸、私有主機名稱、裝置群組以及新增節點選項。
成為叢集中任何節點的超級使用者。
輸入 scsetup 公用程式。
# scsetup |
顯示 Main Menu。
從功能表選取配置。依照螢幕上的指示完成作業。
請參閱 scsetup 線上說明,以取得詳細資訊。
輸入下列指令。
% showrev -p |
Sun Cluster 更新版次是透過主產品修補程式編號及更新版本來作確認。
以下範例顯示了有關修補程式 110648-05 的資訊。
% showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
輸入下列指令。
% scinstall -pv |
該指令顯示了所有 Sun Cluster 套裝軟體的 Sun Cluster 發行版本編號與版本字串。
以下範例顯示叢集的版次資訊以及所有套件的版本資訊。
% scinstall -pv SunCluster 3.1 SUNWscr: 3.1.0,REV=2000.10.01.01.00 SUNWscdev: 3.1.0,REV=2000.10.01.01.00 SUNWscu: 3.1.0,REV=2000.10.01.01.00 SUNWscman: 3.1.0,REV=2000.10.01.01.00 SUNWscsal: 3.1.0,REV=2000.10.01.01.00 SUNWscsam: 3.1.0,REV=2000.10.01.01.00 SUNWscvm: 3.1.0,REV=2000.10.01.01.00 SUNWmdm: 4.2.1,REV=2000.08.08.10.01 |
您也可使用 SunPlex Manager GUI 來完成此程序。請參閱第 10 章, 利用圖形化使用者介面管理 Sun Cluster。請參閱 SunPlex Manager 線上說明,以取得詳細資訊。
您不必登入成超級使用者即可執行此程序。
顯示叢集已配置的資源類型、資源群組與資源。
% scrgadm -p |
以下範例顯示配置給叢集 schost 的資源類型 (RT Name)、資源群組 (RG Name) 與資源 (RS Name)。
% scrgadm -p RT Name: SUNW.SharedAddress RT Description: HA Shared Address Resource Type RT Name: SUNW.LogicalHostname RT Description: Logical Hostname Resource Type RG Name: schost-sa-1 RG Description: RS Name: schost-1 RS Description: RS Type: SUNW.SharedAddress RS Resource Group: schost-sa-1 RG Name: schost-lh-1 RG Description: RS Name: schost-3 RS Description: RS Type: SUNW.LogicalHostname RS Resource Group: schost-lh-1 |
您也可使用 SunPlex Manager GUI 來完成此程序。請參閱 SunPlex Manager 線上說明,以取得詳細資訊。
您不必登入成超級使用者即可執行此程序。
檢查叢集元件的狀態。
% scstat -p |
以下範例提供了 scstat(1M) 傳回的叢集元件狀態資訊的範例。
% scstat -p -- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online Cluster node: phys-schost-3 Online Cluster node: phys-schost-4 Online ------------------------------------------------------------------ -- Cluster Transport Paths -- Endpoint Endpoint Status -------- -------- ------ Transport path: phys-schost-1:qfe1 phys-schost-4:qfe1 Path online Transport path: phys-schost-1:hme1 phys-schost-4:hme1 Path online ... ------------------------------------------------------------------ -- Quorum Summary -- Quorum votes possible: 6 Quorum votes needed: 4 Quorum votes present: 6 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ Node votes: phys-schost-1 1 1 Online Node votes: phys-schost-2 1 1 Online ... -- Quorum Votes by Device -- Device Name Present Possible Status ----------- ------- -------- ------ Device votes: /dev/did/rdsk/d2s2 1 1 Online Device votes: /dev/did/rdsk/d8s2 1 1 Online ... -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: rmt/1 - - Device group servers: rmt/2 - - Device group servers: schost-1 phys-schost-2 phys-schost-1 Device group servers: schost-3 - - -- Device Group Status -- Device Group Status ------------ ------ Device group status: rmt/1 Offline Device group status: rmt/2 Offline Device group status: schost-1 Online Device group status: schost-3 Offline ------------------------------------------------------------------ -- Resource Groups and Resources -- Group Name Resources ---------- --------- Resources: test-rg test_1 Resources: real-property-rg - Resources: failover-rg - Resources: descript-rg-1 - ... -- Resource Groups -- Group Name Node Name State ---------- --------- ----- Group: test-rg phys-schost-1 Offline Group: test-rg phys-schost-2 Offline ... -- Resources -- Resource Name Node Name State Status Message ------------- --------- ----- -------------- Resource: test_1 phys-schost-1 Offline Offline Resource: test_1 phys-schost-2 Offline Offline ----------------------------------------------------------------- -- IPMP Groups -- Node Name Group Status Adapter Status --------- ----- ------ ------- ------ IPMP Group: phys-schost-1 sc_ipmp0 Online qfe1 Online IPMP Group: phys-schost-2 sc_ipmp0 Online qfe1 Online ------------------------------------------------------------------ |
您也可使用 SunPlex Manager GUI 來完成此程序。請參閱 SunPlex Manager 線上說明,以取得詳細資訊。
您不必登入成超級使用者即可執行此程序。
若要檢查 IP 網路多重路徑群組的狀態,請使用 scstat(1M) 指令。
檢查叢集元件的狀態。
% scstat -i |
以下範例顯示 scstat -i 傳回的叢集元件的狀態資訊。
% scstat -i ----------------------------------------------------------------- -- IPMP Groups -- Node Name Group Status Adapter Status --------- ----- ------ ------- ------ IPMP Group: phys-schost-1 sc_ipmp1 Online qfe2 Online IPMP Group: phys-schost-1 sc_ipmp0 Online qfe1 Online IPMP Group: phys-schost-2 sc_ipmp1 Online qfe2 Online IPMP Group: phys-schost-2 sc_ipmp0 Online qfe1 Online ------------------------------------------------------------------ |
您也可使用 SunPlex Manager GUI 來完成此程序。請參閱 SunPlex Manager 線上說明,以取得詳細資訊。
您不必登入成超級使用者即可執行此程序。
檢視叢集配置
% scconf -p |
若要顯示使用 scconf 指令的詳細資訊,請使用 冗長選項。請參閱 scconf(1M) 線上手冊,以取得詳細資訊。
以下範例列出叢集配置。
% scconf -p Cluster name: cluster-1 Cluster ID: 0x3908EE1C Cluster install mode: disabled Cluster private net: 172.16.0.0 Cluster private netmask: 192.168.0.0 Cluster new node authentication: unix Cluster new node list: <NULL - Allow any node> Cluster nodes: phys-schost-1 phys-schost-2 phys-schost-3 phys-schost-4 Cluster node name: phys-schost-1 Node ID: 1 Node enabled: yes Node private hostname: clusternode1-priv Node quorum vote count: 1 Node reservation key: 0x3908EE1C00000001 Node transport adapters: hme1 qfe1 qfe2 Node transport adapter: hme1 Adapter enabled: yes Adapter transport type: dlpi Adapter property: device_name=hme Adapter property: device_instance=1 Adapter property: dlpi_heartbeat_timeout=10000 ... Cluster transport junctions: hub0 hub1 hub2 Cluster transport junction: hub0 Junction enabled: yes Junction type: switch Junction port names: 1 2 3 4 ... Junction port: 1 Port enabled: yes Junction port: 2 Port enabled: yes ... Cluster transport cables Endpoint Endpoint State -------- -------- ----- Transport cable: phys-schost-1:hme1@0 hub0@1 Enabled Transport cable: phys-schost-1:qfe1@0 hub1@1 Enabled Transport cable: phys-schost-1:qfe2@0 hub2@1 Enabled Transport cable: phys-schost-2:hme1@0 hub0@2 Enabled ... Quorum devices: d2 d8 Quorum device name: d2 Quorum device votes: 1 Quorum device enabled: yes Quorum device name: /dev/did/rdsk/d2s2 Quorum device hosts (enabled): phys-schost-1 phys-schost-2 Quorum device hosts (disabled): ... Device group name: schost-3 Device group type: SVM Device group failback enabled: no Device group node list: phys-schost-3, phys-schost-4 Diskset name: schost-3 |
sccheck(1M) 指令執行一系列檢查,以驗證叢集所需的基本配置是否運作正常。如果所有檢查均順利完成,sccheck 將返回到 shell 提示符號。如果有某個檢查失敗,則 sccheck 將在指定的或預設的輸出目錄中產生報告。如果您對一個以上的節點執行 sccheck,sccheck 將會產生一個針對各個節點的報告和一個針對多個節點檢查的報告。
sccheck 指令分兩個步驟執行﹕資料收集與分析。依據系統配置的不同,資料收集可能會很費時。您可以使用 -v1 旗標在冗長模式中呼叫 sccheck 來列印進度訊息,或者您可以使用 -v2 旗標在特別冗長的模式中執行 sccheck,在此模式下,可以列印更詳細的進度訊息,尤其是在資料收集期間。
請於執行完某個可能導致裝置、容體管理元件或 Sun Cluster 配置變更的管理程序之後,執行 sccheck。
以下範例顯示針對節點 phys-schost-1 和 phys-schost-2 在詳細模式中執行的 sccheck,且所有檢查全部通過。
# sccheck -v1 -h phys-schost-1,phys-schost-2 sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished # |
以下範例顯示缺少掛載點 /global/phys-schost-1 的叢集 suncluster 中的節點 phys-schost-2。報告建立在輸出目錄 /var/cluster/sccheck/myReports/ 中。
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
sccheck(1M) 指令將會檢查 /etc/vfstab 檔案以驗證叢集檔案系統及其全域掛載點是否存在配置錯誤。
請在進行影響裝置或容體管理元件的叢集配置變更之後,執行 sccheck。
以下範例顯示缺少掛載點 /global/schost-1 的叢集 suncluster 之節點 phys-schost-2。報告將傳送至輸出目錄 /var/cluster/sccheck/myReports/ 中。
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |