本章提供下列關於管理叢集以及使用 Sun Cluster 管理工具的程序之相關資訊。
Sun Cluster 的高度可用環境確保重要的應用程式皆可供一般使用者使用。系統管理員的工作是保證 Sun Cluster 穩定與正常運作。
開始管理作業前,請先自己熟悉「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」和「Sun Cluster Concepts Guide for Solaris OS」中的規劃資訊。Sun Cluster 管理分成數項作業,於下列手冊中分別敘述:
定期或每天執行的管理以及維護叢集的標準作業。本指南將說明這些作業。
資料服務作業,例如安裝、配置以及變更屬性。「Sun Cluster Data Services Planning and Administration Guide for Solaris OS」中對這些作業進行了說明。
服務作業,包括新增或修復儲存體或網路硬體。這些作業詳述於「Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS 」。
在大部分的情況下,在叢集可作業時您可執行 Sun Cluster 管理作業。如果您必須把某個節點移出叢集或甚至關閉該節點,您可在其他節點繼續叢集作業時進行此動作。至於 Solaris 10,除非有其他指示,否則 Sun Cluster 管理作業應於全域區域中執行。對於需要關閉整個叢集才能執行的程序,請將關機時間排定在下班後,以使對系統造成的影響降至最小。如果您計劃關閉叢集或叢集節點,請先通知使用者。
請勿使用 Solaris 10 Service Management Facility (SMF) 管理介面來啟用或停用以下 Sun Cluster 服務。
Sun Cluster 服務 |
FMRI |
pnm |
svc:/system/cluster/pnm:default |
cl_event |
svc:/system/cluster/cl_event:default |
cl_eventlog |
svc:/system/cluster/cl_eventlog:default |
rpc_pmf |
svc:/system/cluster/rpc_pmf:default |
rpc_fed |
svc:/system/cluster/rpc_fed:default |
rgm |
svc:/system/cluster/rgm:default |
scdpm |
svc:/system/cluster/scdpm:default |
cl_ccra |
svc:/system/cluster/cl_ccra:default |
scsymon_srv |
svc:/system/cluster/scsymon_srv:default |
spm |
svc:/system/cluster/spm:default |
cl_svc_cluster_milestone |
svc:/system/cluster/cl_svc_cluster_milestone:default |
cl_svc_enable |
svc:/system/cluster/cl_svc_enable:default |
network-multipathing |
svc:/system/cluster/network-multipathing |
您可以使用圖形化使用者介面 (GUI) 或指令行在 Sun Cluster 上執行管理作業。下列小節提供 GUI 及指令行工具的簡介。
Sun Cluster 支援 GUI 工具,您可使用這些工具在叢集上執行各種管理作業。 這些 GUI 工具即為 Sun Cluster Manager 與 Sun Management Center (如果您在以 SPARC 為基礎的系統上使用 Sun Cluster)。請參閱第 12 章, 利用圖形使用者介面管理 Sun Cluster以得知更多資訊以及關於配置 Sun Cluster Manager 和 Sun Management Center 的程序。關於如何使用 Sun Cluster Manager 的具體資訊,請參閱 GUI 的線上說明。
您可透過 clsetup(1CL) 公用程式,互動執行大部分的 Sun Cluster 管理作業。無論何時,此指南中的管理程序均使用 clsetup 公用程式。
您可以透過 clsetup 公用程式來管理以下的主要功能表項目。
法定數目
資源群組
資料服務
叢集互連
裝置群組和磁碟區
個人主機名稱
新節點
其他叢集作業
其他您用來管理 Sun Cluster 的指令均列於下列清單。請參閱線上手冊,以取得詳細資訊。
啟動叢集的遠端主控台存取。
在「IP 網路多重路徑」(IP Network Multipathing) 群組中,將 IP 位址從一張配接卡切換到另一張。
管理 Sun Cluster 存取策略以增加節點。
管理 Sun Cluster 裝置。
管理 Sun Cluster 裝置群組。
管理 Sun Cluster 互連。
為 Sun Cluster 管理 NAS 裝置的存取。
管理 Sun Cluster 節點。
管理 Sun Cluster 法定裝置。
管理 Sun Cluster 資源的邏輯主機名稱。
管理 Sun Cluster 資料服務的資源。
管理 Sun Cluster 資料服務的資源。
管理 Sun Cluster 資料服務的資源。
管理 Sun Cluster 資源的共用位址。
互動配置 Sun Cluster。
管理 Sun Cluster SNMP 主機。
管理 Sun Cluster SNMP MIB。
管理 Sun Cluster SNMP 使用者。
配置系統資源監視。
管理 Sun Cluster 的全域配置和全域狀態。
在 Sun Cluster 節點上初始化 VERITAS Volume Manager (VxVM) 並選擇性地執行根磁碟封裝。
另外,您也可以使用指令來管理 Sun Cluster 的磁碟區管理程式部分。這些指令根據您叢集使用的特定磁碟區管理員而定,可能是 Solstice DiskSuiteTM、VERITAS Volume Manager 或 Solaris Volume ManagerTM。
本節說明如何開始準備管理叢集。
在您的 Sun Cluster 配置延伸時,記錄您的網站特有的硬體層面。若欲節省管理上的人力資源,當您變更或升級叢集時,請參閱您的硬體文件。將連接各種不同叢集元件的電纜和連線做標記,也可使管理更為簡易。
藉由保留您的原始叢集配置及後續變更的記錄,減少協力廠商服務提供者為您的叢集提供服務時所需的時間。
您可使用專屬的工作站或透過管理網路連線的工作站作為管理主控台,以管理使用中的叢集。通常,您是在管理主控台上安裝與執行「叢集控制面板」(CCP) 與圖形化使用者介面 (GUI) 工具。如需有關 CCP 的更多資訊,請參閱如何從遠端登入叢集。如需有關安裝 Sun Management Center 與 Sun Cluster Manager GUI 工具之叢集控制面板模組的說明,請參閱「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」。
管理主控台並非叢集節點。管理主控台是用來以遠端方式存取叢集節點,透過公用網路或以網路為基礎的終端機集線器。
如果您的 SPARC 叢集由 Sun EnterpriseTM 10000 伺服器組成,則必須從管理主控台登入系統服務處理器 (SSP)。請使用 netcon 指令來連線。netcon 連接 Sun Enterprise 10000 網域的預設方法是透過網路介面。如果無法存取網路,您可透過設定 -f 選項,在「專用」模式中使用 netcon。您也可以在正常的 netcon 階段作業中傳送 ~*。如果網路無法使用,上述解決方案的任一個均可提供您切換到串列介面的選項。
Sun Cluster 不需要專用的管理主控台,但是使用主控台可提供以下優點:
在同一機器上將主控台和管理工具分組,達到中央化叢集管理
透過 Enterprise Services 或服務供應商提供更快速的問題解決方案
請定期備份您的叢集。雖然 Sun Cluster 提供了一個在儲存裝置中具有資料鏡像副本的高度可用環境,但請勿以 Sun Cluster 取代定期備份的動作。Sun Cluster 可承受多重故障,但它無法保障因使用者、程式錯誤或災難性故障所造成的資料遺失。因此,您必須有備份程序來防止資料的遺失。
下列資訊必須納入作為備份作業的一部分。
所有的檔案系統分割區
所有資料庫資料,如果您執行 DBMS 資料服務
所有叢集磁碟的磁碟分割區資訊
md.tab 檔,如果您使用 Solstice DiskSuite/Solaris 磁碟區管理程式當作磁碟區管理程式的話
表 1–1 提供了管理叢集的起始點。
表 1–1 Sun Cluster 3.2 管理工具
作業 |
工具 |
操作說明 |
---|---|---|
從遠端登入叢集 |
使用 ccp 指令啟動「叢集控制面板」(CCP)。然後選取下列一種圖示:cconsolecrlogin、cssh 或 ctelnet。 | |
以互動方式配置叢集 |
啟動 clsetup(1CL) 公用程式。 | |
顯示 Sun Cluster 發行版本編號與版本資訊 |
使用 clnode(1CL) 指令和 show-rev --v -node 子指令與選項。 | |
顯示已安裝的資源、資源群組與資源類型 |
使用下列指令以顯示資源資訊: | |
以圖形方式監視叢集元件 |
使用 Sun Cluster Manager。 |
請參閱線上說明 |
以圖形方式管理某些叢集元件 |
使用 或 Sun Management Center 的 Sun Cluster Manager Sun Cluster 模組 (僅可在以 SPARC 為基礎系統上之 Sun Cluster 中使用)。 |
關於 Sun Cluster Manager,請參閱線上說明 關於 Sun Management Center,請參閱 Sun Management Center 文件 |
檢查叢集元件的狀況 |
使用帶 status 子指令的 cluster(1CL) 指令。 | |
檢查公用網路上 IP 網路多重路徑群組的狀況 |
使用帶 -m 選項的 clnode(1CL) status指令。 | |
檢視叢集配置 |
使用帶 show 子指令的 cluster(1CL) 指令。 | |
檢查全域掛載點 |
使用 sccheck(1M) 指令。 | |
查看 Sun Cluster 指令記錄的內容 |
檢查 /var/cluster/logs/commandlog 檔。 | |
查看 Sun Cluster 系統訊息 |
檢查 /var/adm/messages 檔。 |
「System Administration Guide: Advanced Administration」中的「Viewing System Messages」 |
監視 Solstice DiskSuite 的狀態 |
使用 metastat 指令。 |
Solaris Volume Manager說明文件 |
如果執行 Solaris 9 或 Solaris 10 ,則監視 Solaris Volume Manager 的狀況 |
使用 metastat 指令。 |
叢集控制面板 (CCP) 提供啟動台供 cconsole、crlogin、cssh 和 ctelnet 工具使用。所有工具皆會開啟一個多重視窗連線以連線至一組指定的節點。這個多重視窗連接是由每一個指定節點的主視窗以及一個共通視窗所組成。在共同視窗中輸入便可將輸入指令傳送到每一個主機視窗,讓您能夠同時在所有叢集的節點上執行指令。
您也可以從指令行啟動 cconsole、crlogin 、cssh 或 ctelnet 階段作業。
根據預設,cconsole 公用程式使用 telnet 連線至節點主控台。若要改使用 Secure Shell 連線至主控台,請啟用 cconsole 視窗 [選項] 功能表中的 [使用 SSH] 核取方塊。或者,當您發出 ccp 或 cconsole 指令時指定-s 選項。
請參閱 ccp(1M) 和 cconsole(1M) 線上手冊以取得更多資訊。
此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
請在啟動 CCP 之前,確認是否符合以下必備條件:
在管理主控台上安裝 SUNWccon 套件。
請確認管理主控台上的 PATH 變數是否包含 Sun Cluster 工具目錄 /opt/SUNWcluster/bin 和 /usr/cluster/bin。您可藉由設定 $CLUSTER_HOME 環境變數來改變工具目錄位置。
如果您使用終端機集線器的話,請配置 clusters 檔、serialports 檔及 nsswitch.conf 檔。這些檔案可以是 /etc 檔或 NIS 或 NIS+ 資料庫。請參閱 clusters(4) 和 serialports(4) 線上說明以取得更多資訊。
如果您有 Sun Enterprise 10000 伺服器 平台,請登入系統服務處理器 (SSP)。
請從管理主控台啟動 CCP 啟動台。
# ccp clustername |
出現 CCP 啟動台。
要啟動叢集的遠端階段作業,請按一下 CCP 啟動台中的 cconsole、crlogin、cssh 或 ctelnet 圖示。
請執行此程序以建立連線到叢集節點主控台的 Secure Shell 連線。
如果您使用終端機集訊機的話,請配置 clusters 檔、serialports 檔及 nsswitch.conf 檔。這些檔案可以是 /etc 檔或 NIS 或 NIS+ 資料庫。
在 serialports 檔案中,請使用可用來與每個主控台存取裝置建立安全連線的連接埠號碼。Secure Shell 連線預設的連接埠號碼為 22。
請參閱 clusters(4) 和 serialports(4) 線上手冊以取得更多資訊。
成為管理主控台上的超級使用者。
請在安全模式中啟動 cconsole 公用程式。
# cconsole -s [-l 使用者名稱] [-p ssh 連接埠] |
啟用安全的 shell 連線。
為遠端連線指定使用者名稱。如果沒有指定 -l 選項, 則會使用啟動 cconsole 公用程式的使用者名稱。
指定要使用的 Secure Shell 連接埠號碼。如果沒有指定 -p 選項,則會使用預設的連接埠號碼 22 以進行安全連線。
clsetup(1CL) 公用程式使您可以互動地配置叢集的法定裝置、資源群組、叢集傳輸、私有主機名稱、裝置群組以及新節點選項。
此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
請參閱 clsetup 線上說明以取得詳細資訊。
此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
以下範例顯示了有關修補程式 110648-05 的資訊。
% showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
顯示 Sun Cluster 發行版本與版本資訊:
% clnode show-rev -v - |
該指令顯示了所有 Sun Cluster 套裝軟體的 Sun Cluster 發行版本編號與版本字串。
以下範例顯示叢集的版次資訊以及所有套件的版本資訊。
% clnode show-rev 3.2 % clnode show-rev -v Sun Cluster 3.2 for Solaris 9 sparc SUNWscr: 3.2.0,REV=2006.02.17.18.11 SUNWscu: 3.2.0,REV=2006.02.17.18.11 SUNWsczu: 3.2.0,REV=2006.02.17.18.11 SUNWscsck: 3.2.0,REV=2006.02.17.18.11 SUNWscnm: 3.2.0,REV=2006.02.17.18.11 SUNWscdev: 3.2.0,REV=2006.02.17.18.11 SUNWscgds: 3.2.0,REV=2006.02.17.18.11 SUNWscman: 3.2.0,REV=2005.10.18.08.42 SUNWscsal: 3.2.0,REV=2006.02.17.18.11 SUNWscsam: 3.2.0,REV=2006.02.17.18.11 SUNWscvm: 3.2.0,REV=2006.02.17.18.11 SUNWmdm: 3.2.0,REV=2006.02.17.18.11 SUNWscmasa: 3.2.0,REV=2006.02.17.18.11 SUNWscmautil: 3.2.0,REV=2006.02.17.18.11 SUNWscmautilr: 3.2.0,REV=2006.02.17.18.11 SUNWjfreechart: 3.2.0,REV=2006.02.17.18.11 SUNWscva: 3.2.0,REV=2006.02.17.18.11 SUNWscspm: 3.2.0,REV=2006.02.17.18.11 SUNWscspmu: 3.2.0,REV=2006.02.17.18.11 SUNWscspmr: 3.2.0,REV=2006.02.17.18.11 SUNWscderby: 3.2.0,REV=2006.02.17.18.11 SUNWsctelemetry: 3.2.0,REV=2006.02.17.18.11 SUNWscrsm: 3.2.0,REV=2006.02.17.18.11 SUNWcsc: 3.2.0,REV=2006.02.21.10.16 SUNWcscspm: 3.2.0,REV=2006.02.21.10.16 SUNWcscspmu: 3.2.0,REV=2006.02.21.10.16 SUNWdsc: 3.2.0,REV=2006.02.21.10.09 SUNWdscspm: 3.2.0,REV=2006.02.21.10.09 SUNWdscspmu: 3.2.0,REV=2006.02.21.10.09 SUNWesc: 3.2.0,REV=2006.02.21.10.11 SUNWescspm: 3.2.0,REV=2006.02.21.10.11 SUNWescspmu: 3.2.0,REV=2006.02.21.10.11 SUNWfsc: 3.2.0,REV=2006.02.21.10.06 SUNWfscspm: 3.2.0,REV=2006.02.21.10.06 SUNWfscspmu: 3.2.0,REV=2006.02.21.10.06 SUNWhsc: 3.2.0,REV=2006.02.21.10.20 SUNWhscspm: 3.2.0,REV=2006.02.21.10.20 SUNWhscspmu: 3.2.0,REV=2006.02.21.10.20 SUNWjsc: 3.2.0,REV=2006.02.21.10.22 SUNWjscman: 3.2.0,REV=2006.02.21.10.22 SUNWjscspm: 3.2.0,REV=2006.02.21.10.22 SUNWjscspmu: 3.2.0,REV=2006.02.21.10.22 SUNWksc: 3.2.0,REV=2006.02.21.10.14 SUNWkscspm: 3.2.0,REV=2006.02.21.10.14 SUNWkscspmu: 3.2.0,REV=2006.02.21.10.14 |
您也可使用 Sun Cluster Manager GUI 來完成此程序。請參閱第 12 章, 利用圖形使用者介面管理 Sun Cluster或參閱 Sun Cluster Manager 線上說明以取得更多資訊。
此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
非超級使用者身分的使用者,需要 solaris.cluster.read RBAC 授權才可使用此子指令。
顯示叢集已配置的資源類型、資源群組與資源。
% cluster show -t resource,resourcetype,resourcegroup |
如需關於個別資源、資源群組以及資源類型的資訊,請搭配下列其中一個指令使用 show 子指令:
resource
resource group
resourcetype
以下範例顯示配置給叢集 schost 的資源類型 (RT Name)、資源群組 (RG Name) 與資源 (RS Name)。
% cluster show resource,resourcetype,resourcegroup === Registered Resource Types === Resource Type: SUNW.qfs RT_description: SAM-QFS Agent on SunCluster RT_version: 3.1 API_version: 3 RT_basedir: /opt/SUNWsamfs/sc/bin Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: True Pkglist: <NULL> RT_system: False === Resource Groups and Resources === Resource Group: qfs-rg RG_description: <NULL> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-2 phys-schost-1 --- Resources for Group qfs-rg --- Resource: qfs-res Type: SUNW.qfs Type_version: 3.1 Group: qfs-rg R_description: Resource_project_name: default Enabled{phys-schost-2}: True Enabled{phys-schost-1}: True Monitored{phys-schost-2}: True Monitored{phys-schost-1}: True |
您也可使用 Sun Cluster Manager GUI 來完成此程序。請參閱 Sun Cluster Manager 線上說明,以取得詳細資訊。
此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
非超級使用者身分的使用者,需要 solaris.cluster.read RBAC 授權才可使用 status 子指令。
下列範例提供叢集 cluster(1CL) status 傳回的叢集元件的狀況資訊範例。
% cluster status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online === Cluster Transport Paths === Endpoint1 Endpoint2 Status --------- --------- ------ phys-schost-1:qfe1 phys-schost-4:qfe1 Path online phys-schost-1:hme1 phys-schost-4:hme1 Path online === Cluster Quorum === --- Quorum Votes Summary --- Needed Present Possible ------ ------- -------- 3 3 4 --- Quorum Votes by Node --- Node Name Present Possible Status --------- ------- -------- ------ phys-schost-1 1 1 Online phys-schost-2 1 1 Online --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ /dev/did/rdsk/d2s2 1 1 Online /dev/did/rdsk/d8s2 0 1 Offline === Cluster Device Groups === --- Device Group Status --- Device Group Name Primary Secondary Status ----------------- ------- --------- ------ schost-2 phys-schost-2 - Degraded --- Spare, Inactive, and In Transition Nodes --- Device Group Name Spare Nodes Inactive Nodes In Transistion Nodes ----------------- ----------- -------------- -------------------- schost-2 - - - === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- --------- --------- ------ test-rg phys-schost-1 No Offline phys-schost-2 No Online test-rg phys-schost-1 No Offline phys-schost-2 No Error--stop failed test-rg phys-schost-1 No Online phys-schost-2 No Online === Cluster Resources === Resource Name Node Name Status Message ------------- --------- ------ ------- test_1 phys-schost-1 Offline Offline phys-schost-2 Online Online test_1 phys-schost-1 Offline Offline phys-schost-2 Stop failed Faulted test_1 phys-schost-1 Online Online phys-schost-2 Online Online Device Instance Node Status --------------- ---- ------ /dev/did/rdsk/d2 phys-schost-1 Ok /dev/did/rdsk/d3 phys-schost-1 Ok phys-schost-2 Ok /dev/did/rdsk/d4 phys-schost-1 Ok phys-schost-2 Ok /dev/did/rdsk/d6 phys-schost-2 Ok |
您也可使用 Sun Cluster Manager GUI 來完成此程序。請參閱 Sun Cluster Manager 線上說明,以取得詳細資訊。
此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
若要檢查 IP 網路多重路徑群組的狀態,請搭配 status子指令使用 clnode(1CL) 指令。
非超級使用者身分的使用者,需要 solaris.cluster.read RBAC 授權才可使用此子指令。
以下範例顯示 clnode status 指令傳回的叢集元件的狀態資訊範本。
% clnode status -m --- Node IPMP Group Status --- Node Name Group Name Status Adapter Status --------- ---------- ------ ------- ------ phys-schost-1 test-rg Online qfe1 Online phys-schost-2 test-rg Online qfe1 Online |
您也可使用 Sun Cluster Manager GUI 來完成此程序。請參閱 Sun Cluster Manager 線上說明,以取得詳細資訊。
此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
非超級使用者身分的使用者,需要 solaris.cluster.read RBAC 授權才可使用 status 子指令。
檢視叢集配置
% cluster show |
若要使用 cluster 指令顯示更多資訊,請使用詳細的選項。請參閱 cluster(1CL) 線上手冊以取得詳細資訊。
以下範例列出叢集配置。
% cluster show |
=== Cluster === Cluster Name: cluster-1 installmode: disabled heartbeat_timeout: 10000 heartbeat_quantum: 1000 private_netaddr: 172.16.0.0 private_netmask: 255.255.248.0 max_nodes: 64 max_privatenets: 10 global_fencing: Unknown Node List: phys-schost-1 Node Zones: phys_schost-2:za === Host Access Control === Cluster name: clustser-1 Allowed hosts: phys-schost-1, phys-schost-2:za Authentication Protocol: sys === Cluster Nodes === Node Name: phys-schost-1 Node ID: 1 Type: cluster Enabled: yes privatehostname: clusternode1-priv reboot_on_path_failure: disabled globalzoneshares: 3 defaultpsetmin: 1 quorum_vote: 1 quorum_defaultvote: 1 quorum_resv_key: 0x43CB1E1800000001 Transport Adapter List: qfe3, hme0 --- Transport Adapters for phys-schost-1 --- Transport Adapter: qfe3 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): qfe Adapter Property(device_instance): 3 Adapter Property(lazy_free): 1 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.1.1 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled Transport Adapter: hme0 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): hme Adapter Property(device_instance): 0 Adapter Property(lazy_free): 0 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.0.129 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled --- SNMP MIB Configuration on phys-schost-1 --- SNMP MIB Name: Event State: Disabled Protocol: SNMPv2 --- SNMP Host Configuration on phys-schost-1 --- --- SNMP User Configuration on phys-schost-1 --- SNMP User Name: foo Authentication Protocol: MD5 Default User: No Node Name: phys-schost-2:za Node ID: 2 Type: cluster Enabled: yes privatehostname: clusternode2-priv reboot_on_path_failure: disabled globalzoneshares: 1 defaultpsetmin: 2 quorum_vote: 1 quorum_defaultvote: 1 quorum_resv_key: 0x43CB1E1800000002 Transport Adapter List: hme0, qfe3 --- Transport Adapters for phys-schost-2 --- Transport Adapter: hme0 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): hme Adapter Property(device_instance): 0 Adapter Property(lazy_free): 0 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.0.130 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled Transport Adapter: qfe3 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): qfe Adapter Property(device_instance): 3 Adapter Property(lazy_free): 1 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.1.2 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled --- SNMP MIB Configuration on phys-schost-2 --- SNMP MIB Name: Event State: Disabled Protocol: SNMPv2 --- SNMP Host Configuration on phys-schost-2 --- --- SNMP User Configuration on phys-schost-2 --- === Transport Cables === Transport Cable: phys-schost-1:qfe3,switch2@1 Cable Endpoint1: phys-schost-1:qfe3 Cable Endpoint2: switch2@1 Cable State: Enabled Transport Cable: phys-schost-1:hme0,switch1@1 Cable Endpoint1: phys-schost-1:hme0 Cable Endpoint2: switch1@1 Cable State: Enabled Transport Cable: phys-schost-2:hme0,switch1@2 Cable Endpoint1: phys-schost-2:hme0 Cable Endpoint2: switch1@2 Cable State: Enabled Transport Cable: phys-schost-2:qfe3,switch2@2 Cable Endpoint1: phys-schost-2:qfe3 Cable Endpoint2: switch2@2 Cable State: Enabled === Transport Switches === Transport Switch: switch2 Switch State: Enabled Switch Type: switch Switch Port Names: 1 2 Switch Port State(1): Enabled Switch Port State(2): Enabled Transport Switch: switch1 Switch State: Enabled Switch Type: switch Switch Port Names: 1 2 Switch Port State(1): Enabled Switch Port State(2): Enabled === Quorum Devices === Quorum Device Name: d3 Enabled: yes Votes: 1 Global Name: /dev/did/rdsk/d3s2 Type: scsi Access Mode: scsi2 Hosts (enabled): phys-schost-1, phys-schost-2 Quorum Device Name: qs1 Enabled: yes Votes: 1 Global Name: qs1 Type: quorum_server Hosts (enabled): phys-schost-1, phys-schost-2 Quorum Server Host: 10.11.114.83 Port: 9000 === Device Groups === Device Group Name: testdg3 Type: SVM failback: no Node List: phys-schost-1, phys-schost-2 preferenced: yes numsecondaries: 1 diskset name: testdg3 === Registered Resource Types === Resource Type: SUNW.LogicalHostname:2 RT_description: Logical Hostname Resource Type RT_version: 2 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hafoip Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: True Pkglist: SUNWscu RT_system: True Resource Type: SUNW.SharedAddress:2 RT_description: HA Shared Address Resource Type RT_version: 2 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hascip Single_instance: False Proxy: False Init_nodes: <Unknown> Installed_nodes: <All> Failover: True Pkglist: SUNWscu RT_system: True Resource Type: SUNW.HAStoragePlus:4 RT_description: HA Storage Plus RT_version: 4 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hastorageplus Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWscu RT_system: False Resource Type: SUNW.haderby RT_description: haderby server for Sun Cluster RT_version: 1 API_version: 7 RT_basedir: /usr/cluster/lib/rgm/rt/haderby Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWscderby RT_system: False Resource Type: SUNW.sctelemetry RT_description: sctelemetry service for Sun Cluster RT_version: 1 API_version: 7 RT_basedir: /usr/cluster/lib/rgm/rt/sctelemetry Single_instance: True Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWsctelemetry RT_system: False === Resource Groups and Resources === Resource Group: HA_RG RG_description: <Null> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group HA_RG --- Resource: HA_R Type: SUNW.HAStoragePlus:4 Type_version: 4 Group: HA_RG R_description: Resource_project_name: SCSLM_HA_RG Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True Resource Group: cl-db-rg RG_description: <Null> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group cl-db-rg --- Resource: cl-db-rs Type: SUNW.haderby Type_version: 1 Group: cl-db-rg R_description: Resource_project_name: default Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True Resource Group: cl-tlmtry-rg RG_description: <Null> RG_mode: Scalable RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group cl-tlmtry-rg --- Resource: cl-tlmtry-rs Type: SUNW.sctelemetry Type_version: 1 Group: cl-tlmtry-rg R_description: Resource_project_name: default Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True === DID Device Instances === DID Device Name: /dev/did/rdsk/d1 Full Device Path: phys-schost-1:/dev/rdsk/c0t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d2 Full Device Path: phys-schost-1:/dev/rdsk/c1t0d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d3 Full Device Path: phys-schost-2:/dev/rdsk/c2t1d0 Full Device Path: phys-schost-1:/dev/rdsk/c2t1d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d4 Full Device Path: phys-schost-2:/dev/rdsk/c2t2d0 Full Device Path: phys-schost-1:/dev/rdsk/c2t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d5 Full Device Path: phys-schost-2:/dev/rdsk/c0t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d6 Full Device Path: phys-schost-2:/dev/rdsk/c1t0d0 Replication: none default_fencing: global === NAS Devices === Nas Device: nas_filer1 Type: netapp User ID: root Nas Device: nas2 Type: netapp User ID: llai |
sccheck(1M) 指令會執行一系列檢查,以驗證叢集所需的基本配置是否運作正常。如果所有檢查均順利完成,sccheck 將返回到 shell 提示符號。如果有某個檢查失敗,則 sccheck 將在指定的或預設的輸出目錄中產生報告。如果您對一個以上的節點執行 sccheck,sccheck 將會產生一個針對各個節點的報告和一個針對多個節點檢查的報告。
sccheck 指令分兩個步驟執行﹕資料收集與分析。依據系統配置的不同,資料收集可能會很費時。您可在詳細模式中搭配 -v1 旗標一起執行 sccheck 以列印進度訊息。或者,特別是在資料收集期間,您可使用 -v2 旗標在高度詳細模式中執行 sccheck,其可列印更詳細的進度訊息。
請於執行完某個可能導致裝置、磁碟區管理元件或 Sun Cluster 配置變更的管理程序之後,執行 sccheck。
以下範例顯示針對節點 phys-schost-1 和 phys-schost-2 在詳細模式中執行的 sccheck,且所有檢查全部通過。
# sccheck -v1 -h phys-schost-1,phys-schost-2 sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished # |
以下範例顯示缺少掛載點 /global/phys-schost-1 的叢集 suncluster 中的節點 phys-schost-2。報告建立在輸出目錄 /var/cluster/sccheck/myReports/ 中。
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
sccheck(1M) 指令將會檢查 /etc/vfstab 檔案以驗證叢集檔案系統及其全域掛載點是否存在配置錯誤。
請在進行影響裝置或磁碟區管理元件的叢集配置變更之後,執行 sccheck。
以下範例顯示缺少掛載點 /global/schost-1 的叢集 suncluster 之節點 phys-schost-2。報告已傳送至輸出目錄 /var/cluster/sccheck/myReports/。
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |
/var/cluster/logs/commandlog ASCII 文字檔案包含執行於叢集中所選取的 Sun Cluster 指令的記錄。當您設定叢集時,會自動開始記錄指令,而當您關閉叢集時,則會結束記錄。指令會記錄至所有在叢集模式中開啟與啟動的節點。
未記錄到此檔案的的指令包括顯示叢集配置與目前狀態的指令。
記錄在此檔案中的指令包括配置與變更叢集目前狀態的指令:
claccess
cldevice
cldevicegroup
clinterconnect
clnasdevice
clnode
clquorum
clreslogicalhostname
clresource
clresourcegroup
clresourcetype
clressharedaddress
clsetup
clsnmphost
clsnmpmib
clnsmpuser
cltelemetryattribute
cluster
scconf
scdidadm
scdpm
scgdevs
scrgadm
scsetup
scshutdown
scswitch
commandlog 檔案中的記錄可包含下列元素:
日期和時間戳記
執行指令的主機名稱
指令的程序 ID
執行指令的使用者登入名稱
使用者執行的指令,包含所有選項和運算元
在 commandlog 檔案中會使用引號標示指令選項,可讓您很快地在 shell 中辨識、複製、貼上與執行它們。
已執行指令的結束狀況
如果指令因不明原因異常中斷,Sun Cluster 不會在 commandlog 檔案中顯示結束狀況。
根據預設,commandlog 檔案會定期歸檔,且一週一次。若要變更 commandlog 檔案的歸檔策略,請在叢集中的每個節點上使用 crontab 指令。請參閱 crontab(1) 線上手冊以取得更多資訊。
Sun Cluster 可於任何時間在各個叢集節點上最多維護 8 個先前已歸檔的 commandlog 檔案。目前這週的 commandlog 檔案命名為 commandlog。最新完成的週檔案命名為 commandlog.0 。最舊完成的週檔案被命名為 commandlog.7。
檢視目前這週的 commandlog 檔案內容,一次一個畫面。
# more /var/cluster/logs/commandlog |
下列範例顯示 more 指令所顯示的 commandlog 內容。
more -lines10 /var/cluster/logs/commandlog 11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup 11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1" 11/11/2006 09:43:36 phys-schost-1 5758 root END 0 11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y "RG_description=Department Shared Address RG" "app-sa-1" 11/11/2006 09:43:37 phys-schost-1 5760 root END 0 11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1" 11/11/2006 09:44:15 phys-schost-1 5810 root END 0 11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320 12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1" -y "RG_description=Joe Bloggs Shared Address RG" 12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0 |