表 1–1 提供了管理叢集的起始點。
表 1–1 Sun Cluster 3.2 管理工具
作業 |
工具 |
指示 |
---|---|---|
從遠端登入叢集 |
使用 ccp 指令啟動「叢集控制面板」(CCP)。然後選取下列一種圖示:cconsolecrlogin、cssh 或 ctelnet。 | |
以互動方式配置叢集 |
啟動 clsetup(1CL) 公用程式。 | |
顯示 Sun Cluster 發行版本編號與版本資訊 |
使用 clnode(1CL) 指令和 show-rev --v -node 子指令與選項。 | |
顯示已安裝的資源、資源群組與資源類型 |
使用下列指令以顯示資源資訊: | |
以圖形方式監視叢集元件 |
使用 Sun Cluster Manager。 |
請參閱線上說明 |
以圖形方式管理某些叢集元件 |
使用 Sun Cluster Manager 或 Sun Management Center 的 Sun Cluster 模組 (只能在 SPARC 系統上與 Sun Cluster 搭配使用)。 |
關於 Sun Cluster Manager,請參閱線上說明 關於 Sun Management Center,請參閱 Sun Management Center 文件 |
檢查叢集元件的狀況 |
使用帶 status 子指令的 cluster(1CL) 指令。 | |
檢查公用網路上 IP 網路多重路徑群組的狀況 |
使用帶 -m 選項的 clnode(1CL) status指令。 | |
檢視叢集配置 |
使用帶 show 子指令的 cluster(1CL) 指令。 | |
檢查全域掛載點 |
使用 sccheck(1M) 指令。 | |
查看 Sun Cluster 指令記錄的內容 |
檢查 /var/cluster/logs/commandlog 檔。 | |
查看 Sun Cluster 系統訊息 |
檢查 /var/adm/messages 檔。 |
「System Administration Guide: Advanced Administration」中的「Viewing System Messages」 |
監視 Solstice DiskSuite 的狀態 |
使用 metastat 指令。 |
Solaris Volume Manager 文件 |
如果執行 Solaris 9 或 Solaris 10 ,則監視 Solaris Volume Manager 的狀況 |
使用 metastat 指令。 |
叢集控制面板 (CCP) 提供啟動台供 cconsole、crlogin、cssh 和 ctelnet 工具使用。所有工具皆會開啟一個多重視窗連線以連線至一組指定的節點。這些多重視窗連線是由每一個指定節點的主機視窗以及一個共同視窗所組成。在共同視窗中輸入便可將輸入指令傳送到每一個主機視窗,讓您能夠同時在所有叢集的節點上執行指令。
您也可以從指令行啟動 cconsole、crlogin 、cssh 或 ctelnet 階段作業。
根據預設,cconsole 公用程式使用 telnet 連線至節點主控台。若要改為使用 Secure Shell 連線至主控台,請啟用 cconsole 視窗 [選項] 功能表中的 [使用 SSH] 核取方塊。或者,當您發出 ccp 或 cconsole 指令時指定-s 選項。
請參閱 ccp(1M) 和 cconsole(1M) 線上手冊以取得更多資訊。
此程序提供長形式的 Sun Cluster 指令。大多數指令還有簡短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
請在啟動 CCP 之前,確認是否符合以下必備條件:
在管理主控台上安裝 SUNWccon 套裝軟體。
請確認管理主控台上的 PATH 變數是否包含 Sun Cluster 工具目錄 /opt/SUNWcluster/bin 和 /usr/cluster/bin。您可藉由設定 $CLUSTER_HOME 環境變數來改變工具目錄位置。
如果您使用終端集訊器的話,請配置 clusters 檔、serialports 檔及 nsswitch.conf 檔。這些檔案可以是 /etc 檔或 NIS 或 NIS+ 資料庫。請參閱「clusters(4) 線上手冊」和「serialports(4) 線上手冊」,以取得更多資訊。
如果您有 Sun Enterprise 10000 伺服器平台,請登入系統服務處理器 (SSP)。
請從管理主控台啟動 CCP 啟動台。
# ccp clustername |
出現 CCP 啟動台。
要啟動叢集的遠端階段作業,請按一下 CCP 啟動台中的 cconsole、crlogin、cssh 或 ctelnet 圖示。
請執行此程序以建立連線到叢集節點主控台的 Secure Shell 連線。
如果您使用終端集訊器的話,請配置 clusters 檔、serialports 檔及 nsswitch.conf 檔。這些檔案可以是 /etc 檔或 NIS 或 NIS+ 資料庫。
在 serialports 檔案中,請使用可用來與每個主控台存取裝置建立安全連線的連接埠號碼。Secure Shell 連線預設的連接埠號碼為 22。
請參閱 clusters(4) 和 serialports(4) 線上手冊以取得更多資訊。
成為管理主控台上的超級使用者。
請在安全模式中啟動 cconsole 公用程式。
# cconsole -s [-l 使用者名稱] [-p ssh 連接埠] |
啟用安全的 shell 連線。
為遠端連線指定使用者名稱。如果沒有指定 -l 選項, 則會使用啟動 cconsole 公用程式的使用者名稱。
指定要使用的 Secure Shell 連接埠號碼。如果沒有指定 -p 選項,則會使用預設的連接埠號碼 22 以進行安全連線。
clsetup(1CL) 公用程式使您可以互動地配置叢集的法定裝置、資源群組、叢集傳輸、私有主機名稱、裝置群組以及新節點選項。
此程序提供長形式的 Sun Cluster 指令。大多數指令還有簡短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
請參閱 clsetup 線上說明以取得詳細資訊。
此程序提供長形式的 Sun Cluster 指令。大多數指令還有簡短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
以下範例顯示了有關修補程式 110648-05 的資訊。
# showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
此程序提供長形式的 Sun Cluster 指令。大多數指令還有簡短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
顯示 Sun Cluster 發行版本與版本資訊:
# clnode show-rev -v -node |
該指令顯示了所有 Sun Cluster 套裝軟體的 Sun Cluster 發行版本編號與版本字串。
以下範例顯示叢集的發行版本資訊以及所有套裝軟體的版本資訊。
# clnode show-rev 3.2 #% clnode show-rev -v Sun Cluster 3.2 for Solaris 9 sparc SUNWscr: 3.2.0,REV=2006.02.17.18.11 SUNWscu: 3.2.0,REV=2006.02.17.18.11 SUNWsczu: 3.2.0,REV=2006.02.17.18.11 SUNWscsck: 3.2.0,REV=2006.02.17.18.11 SUNWscnm: 3.2.0,REV=2006.02.17.18.11 SUNWscdev: 3.2.0,REV=2006.02.17.18.11 SUNWscgds: 3.2.0,REV=2006.02.17.18.11 SUNWscman: 3.2.0,REV=2005.10.18.08.42 SUNWscsal: 3.2.0,REV=2006.02.17.18.11 SUNWscsam: 3.2.0,REV=2006.02.17.18.11 SUNWscvm: 3.2.0,REV=2006.02.17.18.11 SUNWmdm: 3.2.0,REV=2006.02.17.18.11 SUNWscmasa: 3.2.0,REV=2006.02.17.18.11 SUNWscmautil: 3.2.0,REV=2006.02.17.18.11 SUNWscmautilr: 3.2.0,REV=2006.02.17.18.11 SUNWjfreechart: 3.2.0,REV=2006.02.17.18.11 SUNWscva: 3.2.0,REV=2006.02.17.18.11 SUNWscspm: 3.2.0,REV=2006.02.17.18.11 SUNWscspmu: 3.2.0,REV=2006.02.17.18.11 SUNWscspmr: 3.2.0,REV=2006.02.17.18.11 SUNWscderby: 3.2.0,REV=2006.02.17.18.11 SUNWsctelemetry: 3.2.0,REV=2006.02.17.18.11 SUNWscrsm: 3.2.0,REV=2006.02.17.18.11 SUNWcsc: 3.2.0,REV=2006.02.21.10.16 SUNWcscspm: 3.2.0,REV=2006.02.21.10.16 SUNWcscspmu: 3.2.0,REV=2006.02.21.10.16 SUNWdsc: 3.2.0,REV=2006.02.21.10.09 SUNWdscspm: 3.2.0,REV=2006.02.21.10.09 SUNWdscspmu: 3.2.0,REV=2006.02.21.10.09 SUNWesc: 3.2.0,REV=2006.02.21.10.11 SUNWescspm: 3.2.0,REV=2006.02.21.10.11 SUNWescspmu: 3.2.0,REV=2006.02.21.10.11 SUNWfsc: 3.2.0,REV=2006.02.21.10.06 SUNWfscspm: 3.2.0,REV=2006.02.21.10.06 SUNWfscspmu: 3.2.0,REV=2006.02.21.10.06 SUNWhsc: 3.2.0,REV=2006.02.21.10.20 SUNWhscspm: 3.2.0,REV=2006.02.21.10.20 SUNWhscspmu: 3.2.0,REV=2006.02.21.10.20 SUNWjsc: 3.2.0,REV=2006.02.21.10.22 SUNWjscman: 3.2.0,REV=2006.02.21.10.22 SUNWjscspm: 3.2.0,REV=2006.02.21.10.22 SUNWjscspmu: 3.2.0,REV=2006.02.21.10.22 SUNWksc: 3.2.0,REV=2006.02.21.10.14 SUNWkscspm: 3.2.0,REV=2006.02.21.10.14 SUNWkscspmu: 3.2.0,REV=2006.02.21.10.14 |
您也可以使用 Sun Cluster Manager GUI 來完成此程序。請參閱第 12 章, 使用圖形化使用者介面管理 Sun Cluster或 Sun Cluster Manager 線上說明,以取得更多資訊。
此程序提供長形式的 Sun Cluster 指令。大多數指令還有簡短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
非超級使用者身份的使用者,需要 solaris.cluster.read RBAC 授權才可使用此子指令。
顯示叢集已配置的資源類型、資源群組與資源。
% cluster show -t resource,resourcetype,resourcegroup |
如需關於個別資源、資源群組以及資源類型的資訊,請搭配下列其中一個指令使用 show 子指令:
resource
resource group
resourcetype
以下範例顯示配置給叢集 schost 的資源類型 (RT Name)、資源群組 (RG Name) 與資源 (RS Name)。
% cluster show -t resource,resourcetype,resourcegroup === Registered Resource Types === Resource Type: SUNW.qfs RT_description: SAM-QFS Agent on SunCluster RT_version: 3.1 API_version: 3 RT_basedir: /opt/SUNWsamfs/sc/bin Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: True Pkglist: <NULL> RT_system: False === Resource Groups and Resources === Resource Group: qfs-rg RG_description: <NULL> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-2 phys-schost-1 --- Resources for Group qfs-rg --- Resource: qfs-res Type: SUNW.qfs Type_version: 3.1 Group: qfs-rg R_description: Resource_project_name: default Enabled{phys-schost-2}: True Enabled{phys-schost-1}: True Monitored{phys-schost-2}: True Monitored{phys-schost-1}: True |
您也可以使用 Sun Cluster Manager GUI 來完成此程序。請參閱 Sun Cluster Manager 線上說明,以取得更多資訊。
此程序提供長形式的 Sun Cluster 指令。大多數指令還有簡短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
非超級使用者身份的使用者,需要 solaris.cluster.read RBAC 授權才可使用 status 子指令。
下列範例提供 cluster(1CL) status 傳回的叢集元件的狀態資訊範例。
% cluster status === Cluster Nodes === --- Node Status --- Node Name Status --------- ------ phys-schost-1 Online phys-schost-2 Online === Cluster Transport Paths === Endpoint1 Endpoint2 Status --------- --------- ------ phys-schost-1:qfe1 phys-schost-4:qfe1 Path online phys-schost-1:hme1 phys-schost-4:hme1 Path online === Cluster Quorum === --- Quorum Votes Summary --- Needed Present Possible ------ ------- -------- 3 3 4 --- Quorum Votes by Node --- Node Name Present Possible Status --------- ------- -------- ------ phys-schost-1 1 1 Online phys-schost-2 1 1 Online --- Quorum Votes by Device --- Device Name Present Possible Status ----------- ------- -------- ------ /dev/did/rdsk/d2s2 1 1 Online /dev/did/rdsk/d8s2 0 1 Offline === Cluster Device Groups === --- Device Group Status --- Device Group Name Primary Secondary Status ----------------- ------- --------- ------ schost-2 phys-schost-2 - Degraded --- Spare, Inactive, and In Transition Nodes --- Device Group Name Spare Nodes Inactive Nodes In Transistion Nodes ----------------- ----------- -------------- -------------------- schost-2 - - - === Cluster Resource Groups === Group Name Node Name Suspended Status ---------- --------- --------- ------ test-rg phys-schost-1 No Offline phys-schost-2 No Online test-rg phys-schost-1 No Offline phys-schost-2 No Error--stop failed test-rg phys-schost-1 No Online phys-schost-2 No Online === Cluster Resources === Resource Name Node Name Status Message ------------- --------- ------ ------- test_1 phys-schost-1 Offline Offline phys-schost-2 Online Online test_1 phys-schost-1 Offline Offline phys-schost-2 Stop failed Faulted test_1 phys-schost-1 Online Online phys-schost-2 Online Online Device Instance Node Status --------------- ---- ------ /dev/did/rdsk/d2 phys-schost-1 Ok /dev/did/rdsk/d3 phys-schost-1 Ok phys-schost-2 Ok /dev/did/rdsk/d4 phys-schost-1 Ok phys-schost-2 Ok /dev/did/rdsk/d6 phys-schost-2 Ok |
您也可以使用 Sun Cluster Manager GUI 來完成此程序。請參閱 Sun Cluster Manager 線上說明,以取得更多資訊。
此程序提供長形式的 Sun Cluster 指令。大多數指令還有簡短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
若要檢查 IP 網路多重路徑群組的狀態,請搭配 status子指令使用 clnode(1CL) 指令。
非超級使用者身份的使用者,需要 solaris.cluster.read RBAC 授權才可使用此子指令。
以下範例顯示 clnode status 指令傳回的叢集元件的狀態資訊範本。
% clnode status -m --- Node IPMP Group Status --- Node Name Group Name Status Adapter Status --------- ---------- ------ ------- ------ phys-schost-1 test-rg Online qfe1 Online phys-schost-2 test-rg Online qfe1 Online |
您也可以使用 Sun Cluster Manager GUI 來完成此程序。請參閱 Sun Cluster Manager 線上說明,以取得更多資訊。
此程序提供長形式的 Sun Cluster 指令。大多數指令還有簡短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
非超級使用者身份的使用者,需要 solaris.cluster.read RBAC 授權才可使用 status 子指令。
檢視叢集配置
% cluster show |
若要使用 cluster 指令顯示更多資訊,請使用詳細的選項。請參閱 cluster(1CL) 線上手冊以取得詳細資訊。
以下範例列出叢集配置。
% cluster show |
=== Cluster === Cluster Name: cluster-1 installmode: disabled heartbeat_timeout: 10000 heartbeat_quantum: 1000 private_netaddr: 172.16.0.0 private_netmask: 255.255.248.0 max_nodes: 64 max_privatenets: 10 global_fencing: Unknown Node List: phys-schost-1 Node Zones: phys_schost-2:za === Host Access Control === Cluster name: clustser-1 Allowed hosts: phys-schost-1, phys-schost-2:za Authentication Protocol: sys === Cluster Nodes === Node Name: phys-schost-1 Node ID: 1 Type: cluster Enabled: yes privatehostname: clusternode1-priv reboot_on_path_failure: disabled globalzoneshares: 3 defaultpsetmin: 1 quorum_vote: 1 quorum_defaultvote: 1 quorum_resv_key: 0x43CB1E1800000001 Transport Adapter List: qfe3, hme0 --- Transport Adapters for phys-schost-1 --- Transport Adapter: qfe3 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): qfe Adapter Property(device_instance): 3 Adapter Property(lazy_free): 1 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.1.1 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled Transport Adapter: hme0 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): hme Adapter Property(device_instance): 0 Adapter Property(lazy_free): 0 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.0.129 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled --- SNMP MIB Configuration on phys-schost-1 --- SNMP MIB Name: Event State: Disabled Protocol: SNMPv2 --- SNMP Host Configuration on phys-schost-1 --- --- SNMP User Configuration on phys-schost-1 --- SNMP User Name: foo Authentication Protocol: MD5 Default User: No Node Name: phys-schost-2:za Node ID: 2 Type: cluster Enabled: yes privatehostname: clusternode2-priv reboot_on_path_failure: disabled globalzoneshares: 1 defaultpsetmin: 2 quorum_vote: 1 quorum_defaultvote: 1 quorum_resv_key: 0x43CB1E1800000002 Transport Adapter List: hme0, qfe3 --- Transport Adapters for phys-schost-2 --- Transport Adapter: hme0 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): hme Adapter Property(device_instance): 0 Adapter Property(lazy_free): 0 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.0.130 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled Transport Adapter: qfe3 Adapter State: Enabled Adapter Transport Type: dlpi Adapter Property(device_name): qfe Adapter Property(device_instance): 3 Adapter Property(lazy_free): 1 Adapter Property(dlpi_heartbeat_timeout): 10000 Adapter Property(dlpi_heartbeat_quantum): 1000 Adapter Property(nw_bandwidth): 80 Adapter Property(bandwidth): 10 Adapter Property(ip_address): 172.16.1.2 Adapter Property(netmask): 255.255.255.128 Adapter Port Names: 0 Adapter Port State(0): Enabled --- SNMP MIB Configuration on phys-schost-2 --- SNMP MIB Name: Event State: Disabled Protocol: SNMPv2 --- SNMP Host Configuration on phys-schost-2 --- --- SNMP User Configuration on phys-schost-2 --- === Transport Cables === Transport Cable: phys-schost-1:qfe3,switch2@1 Cable Endpoint1: phys-schost-1:qfe3 Cable Endpoint2: switch2@1 Cable State: Enabled Transport Cable: phys-schost-1:hme0,switch1@1 Cable Endpoint1: phys-schost-1:hme0 Cable Endpoint2: switch1@1 Cable State: Enabled Transport Cable: phys-schost-2:hme0,switch1@2 Cable Endpoint1: phys-schost-2:hme0 Cable Endpoint2: switch1@2 Cable State: Enabled Transport Cable: phys-schost-2:qfe3,switch2@2 Cable Endpoint1: phys-schost-2:qfe3 Cable Endpoint2: switch2@2 Cable State: Enabled === Transport Switches === Transport Switch: switch2 Switch State: Enabled Switch Type: switch Switch Port Names: 1 2 Switch Port State(1): Enabled Switch Port State(2): Enabled Transport Switch: switch1 Switch State: Enabled Switch Type: switch Switch Port Names: 1 2 Switch Port State(1): Enabled Switch Port State(2): Enabled === Quorum Devices === Quorum Device Name: d3 Enabled: yes Votes: 1 Global Name: /dev/did/rdsk/d3s2 Type: scsi Access Mode: scsi2 Hosts (enabled): phys-schost-1, phys-schost-2 Quorum Device Name: qs1 Enabled: yes Votes: 1 Global Name: qs1 Type: quorum_server Hosts (enabled): phys-schost-1, phys-schost-2 Quorum Server Host: 10.11.114.83 Port: 9000 === Device Groups === Device Group Name: testdg3 Type: SVM failback: no Node List: phys-schost-1, phys-schost-2 preferenced: yes numsecondaries: 1 diskset name: testdg3 === Registered Resource Types === Resource Type: SUNW.LogicalHostname:2 RT_description: Logical Hostname Resource Type RT_version: 2 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hafoip Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: True Pkglist: SUNWscu RT_system: True Resource Type: SUNW.SharedAddress:2 RT_description: HA Shared Address Resource Type RT_version: 2 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hascip Single_instance: False Proxy: False Init_nodes: <Unknown> Installed_nodes: <All> Failover: True Pkglist: SUNWscu RT_system: True Resource Type: SUNW.HAStoragePlus:4 RT_description: HA Storage Plus RT_version: 4 API_version: 2 RT_basedir: /usr/cluster/lib/rgm/rt/hastorageplus Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWscu RT_system: False Resource Type: SUNW.haderby RT_description: haderby server for Sun Cluster RT_version: 1 API_version: 7 RT_basedir: /usr/cluster/lib/rgm/rt/haderby Single_instance: False Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWscderby RT_system: False Resource Type: SUNW.sctelemetry RT_description: sctelemetry service for Sun Cluster RT_version: 1 API_version: 7 RT_basedir: /usr/cluster/lib/rgm/rt/sctelemetry Single_instance: True Proxy: False Init_nodes: All potential masters Installed_nodes: <All> Failover: False Pkglist: SUNWsctelemetry RT_system: False === Resource Groups and Resources === Resource Group: HA_RG RG_description: <Null> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group HA_RG --- Resource: HA_R Type: SUNW.HAStoragePlus:4 Type_version: 4 Group: HA_RG R_description: Resource_project_name: SCSLM_HA_RG Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True Resource Group: cl-db-rg RG_description: <Null> RG_mode: Failover RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group cl-db-rg --- Resource: cl-db-rs Type: SUNW.haderby Type_version: 1 Group: cl-db-rg R_description: Resource_project_name: default Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True Resource Group: cl-tlmtry-rg RG_description: <Null> RG_mode: Scalable RG_state: Managed Failback: False Nodelist: phys-schost-1 phys-schost-2 --- Resources for Group cl-tlmtry-rg --- Resource: cl-tlmtry-rs Type: SUNW.sctelemetry Type_version: 1 Group: cl-tlmtry-rg R_description: Resource_project_name: default Enabled{phys-schost-1}: True Enabled{phys-schost-2}: True Monitored{phys-schost-1}: True Monitored{phys-schost-2}: True === DID Device Instances === DID Device Name: /dev/did/rdsk/d1 Full Device Path: phys-schost-1:/dev/rdsk/c0t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d2 Full Device Path: phys-schost-1:/dev/rdsk/c1t0d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d3 Full Device Path: phys-schost-2:/dev/rdsk/c2t1d0 Full Device Path: phys-schost-1:/dev/rdsk/c2t1d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d4 Full Device Path: phys-schost-2:/dev/rdsk/c2t2d0 Full Device Path: phys-schost-1:/dev/rdsk/c2t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d5 Full Device Path: phys-schost-2:/dev/rdsk/c0t2d0 Replication: none default_fencing: global DID Device Name: /dev/did/rdsk/d6 Full Device Path: phys-schost-2:/dev/rdsk/c1t0d0 Replication: none default_fencing: global === NAS Devices === Nas Device: nas_filer1 Type: netapp User ID: root Nas Device: nas2 Type: netapp User ID: llai |
sccheck(1M) 指令會執行一系列檢查,以驗證叢集所需的基本配置是否運作正常。如果所有檢查均順利完成,sccheck 將返回到 shell 提示符號。如果有某個檢查失敗,則 sccheck 將在指定的或預設的輸出目錄中產生報告。如果您對一個以上的節點執行 sccheck,sccheck 將會產生一個針對各個節點的報告和一個針對多個節點檢查的報告。
sccheck 指令分兩個步驟執行﹕資料收集與分析。依據系統配置的不同,資料收集可能會很費時。您可在詳細模式中搭配 -v1 旗標一起執行 sccheck 以列印進度訊息。或者,特別是在資料收集期間,您可使用 -v2 旗標在高度詳細模式中執行 sccheck,其可列印更詳細的進度訊息。
請於執行完某個可能導致裝置、磁碟區管理元件或 Sun Cluster 配置變更的管理程序之後,執行 sccheck。
以下範例顯示針對節點 phys-schost-1 和 phys-schost-2 在詳細模式中執行的 sccheck,且所有檢查全部通過。
# sccheck -v1 -h phys-schost-1,phys-schost-2 sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished # |
以下範例顯示缺少掛載點 /global/phys-schost-1 的叢集 suncluster 中的節點 phys-schost-2。報告建立在輸出目錄 /var/cluster/sccheck/myReports/ 中。
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
sccheck(1M) 指令將會檢查 /etc/vfstab 檔案以驗證叢集檔案系統及其全域掛載點是否存在配置錯誤。
請在進行影響裝置或磁碟區管理元件的叢集配置變更之後,執行 sccheck。
以下範例顯示缺少掛載點 /global/schost-1 的叢集 suncluster 之節點 phys-schost-2。報告已傳送至輸出目錄 /var/cluster/sccheck/myReports/。
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |
/var/cluster/logs/commandlog ASCII 文字檔案包含執行於叢集中所選取的 Sun Cluster 指令的記錄。當您設定叢集時,會自動開始記錄指令,而當您關閉叢集時,則會結束記錄。指令會記錄至所有在叢集模式中開啟與啟動的節點。
未記錄到此檔案的的指令包括顯示叢集配置與目前狀態的指令。
記錄在此檔案中的指令包括配置與變更叢集目前狀態的指令:
claccess
cldevice
cldevicegroup
clinterconnect
clnasdevice
clnode
clquorum
clreslogicalhostname
clresource
clresourcegroup
clresourcetype
clressharedaddress
clsetup
clsnmphost
clsnmpmib
clnsmpuser
cltelemetryattribute
cluster
scconf
scdidadm
scdpm
scgdevs
scrgadm
scsetup
scshutdown
scswitch
commandlog 檔案中的記錄可包含下列元素:
日期和時間戳記
執行指令的主機名稱
指令的程序 ID
執行指令的使用者登入名稱
使用者執行的指令,包含所有選項和運算元
在 commandlog 檔案中會使用引號標示指令選項,可讓您很快地在 shell 中識別、複製、貼上與執行它們。
已執行指令的結束狀況
如果指令因不明原因異常中斷,Sun Cluster 軟體不會在 commandlog 檔案中顯示結束狀態。
根據預設,commandlog 檔案會定期歸檔,且一週一次。若要變更 commandlog 檔案的歸檔策略,請在叢集中的每個節點上使用 crontab 指令。請參閱 crontab(1) 線上手冊以取得更多資訊。
Sun Cluster 軟體可於任何特定的時間在各個叢集節點上最多維護 8 個先前已歸檔的 commandlog 檔案。目前這週的 commandlog 檔案命名為 commandlog。最新完成的週檔案被命名為 commandlog.0。最舊完成的週檔案被命名為 commandlog.7。
檢視目前這週的 commandlog 檔案內容,一次一個畫面。
# more /var/cluster/logs/commandlog |
下列範例顯示 more 指令所顯示的 commandlog 內容。
more -lines10 /var/cluster/logs/commandlog 11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup 11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1" 11/11/2006 09:43:36 phys-schost-1 5758 root END 0 11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y "RG_description=Department Shared Address RG" "app-sa-1" 11/11/2006 09:43:37 phys-schost-1 5760 root END 0 11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1" 11/11/2006 09:44:15 phys-schost-1 5810 root END 0 11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320 12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1" -y "RG_description=Joe Bloggs Shared Address RG" 12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0 |