表 1–1 提供了管理叢集的起始點。
表 1–1 Sun Cluster 3.2 管理工具|
作業 |
工具 |
操作說明 |
|---|---|---|
|
從遠端登入叢集 |
使用 ccp 指令啟動「叢集控制面板」(CCP)。然後選取下列一種圖示:cconsolecrlogin、cssh 或 ctelnet。 | |
|
以互動方式配置叢集 |
啟動 clsetup(1CL) 公用程式。 | |
|
顯示 Sun Cluster 發行版本編號與版本資訊 |
使用 clnode(1CL) 指令和 show-rev --v -node 子指令與選項。 | |
|
顯示已安裝的資源、資源群組與資源類型 |
使用下列指令以顯示資源資訊: | |
|
以圖形方式監視叢集元件 |
使用 Sun Cluster Manager。 |
請參閱線上說明 |
|
以圖形方式管理某些叢集元件 |
使用 或 Sun Management Center 的 Sun Cluster Manager Sun Cluster 模組 (僅可在以 SPARC 為基礎系統上之 Sun Cluster 中使用)。 |
關於 Sun Cluster Manager,請參閱線上說明 關於 Sun Management Center,請參閱 Sun Management Center 文件 |
|
檢查叢集元件的狀況 |
使用帶 status 子指令的 cluster(1CL) 指令。 | |
|
檢查公用網路上 IP 網路多重路徑群組的狀況 |
使用帶 -m 選項的 clnode(1CL) status指令。 | |
|
檢視叢集配置 |
使用帶 show 子指令的 cluster(1CL) 指令。 | |
|
檢查全域掛載點 |
使用 sccheck(1M) 指令。 | |
|
查看 Sun Cluster 指令記錄的內容 |
檢查 /var/cluster/logs/commandlog 檔。 | |
|
查看 Sun Cluster 系統訊息 |
檢查 /var/adm/messages 檔。 |
「System Administration Guide: Advanced Administration」中的「Viewing System Messages」 |
|
監視 Solstice DiskSuite 的狀態 |
使用 metastat 指令。 |
Solaris Volume Manager說明文件 |
|
如果執行 Solaris 9 或 Solaris 10 ,則監視 Solaris Volume Manager 的狀況 |
使用 metastat 指令。 |
叢集控制面板 (CCP) 提供啟動台供 cconsole、crlogin、cssh 和 ctelnet 工具使用。所有工具皆會開啟一個多重視窗連線以連線至一組指定的節點。這個多重視窗連接是由每一個指定節點的主視窗以及一個共通視窗所組成。在共同視窗中輸入便可將輸入指令傳送到每一個主機視窗,讓您能夠同時在所有叢集的節點上執行指令。
您也可以從指令行啟動 cconsole、crlogin 、cssh 或 ctelnet 階段作業。
根據預設,cconsole 公用程式使用 telnet 連線至節點主控台。若要改使用 Secure Shell 連線至主控台,請啟用 cconsole 視窗 [選項] 功能表中的 [使用 SSH] 核取方塊。或者,當您發出 ccp 或 cconsole 指令時指定-s 選項。
請參閱 ccp(1M) 和 cconsole(1M) 線上手冊以取得更多資訊。
此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
請在啟動 CCP 之前,確認是否符合以下必備條件:
在管理主控台上安裝 SUNWccon 套件。
請確認管理主控台上的 PATH 變數是否包含 Sun Cluster 工具目錄 /opt/SUNWcluster/bin 和 /usr/cluster/bin。您可藉由設定 $CLUSTER_HOME 環境變數來改變工具目錄位置。
如果您使用終端機集線器的話,請配置 clusters 檔、serialports 檔及 nsswitch.conf 檔。這些檔案可以是 /etc 檔或 NIS 或 NIS+ 資料庫。請參閱 clusters(4) 和 serialports(4) 線上說明以取得更多資訊。
如果您有 Sun Enterprise 10000 伺服器 平台,請登入系統服務處理器 (SSP)。
請從管理主控台啟動 CCP 啟動台。
# ccp clustername |
出現 CCP 啟動台。
要啟動叢集的遠端階段作業,請按一下 CCP 啟動台中的 cconsole、crlogin、cssh 或 ctelnet 圖示。
請執行此程序以建立連線到叢集節點主控台的 Secure Shell 連線。
如果您使用終端機集訊機的話,請配置 clusters 檔、serialports 檔及 nsswitch.conf 檔。這些檔案可以是 /etc 檔或 NIS 或 NIS+ 資料庫。
在 serialports 檔案中,請使用可用來與每個主控台存取裝置建立安全連線的連接埠號碼。Secure Shell 連線預設的連接埠號碼為 22。
請參閱 clusters(4) 和 serialports(4) 線上手冊以取得更多資訊。
成為管理主控台上的超級使用者。
請在安全模式中啟動 cconsole 公用程式。
# cconsole -s [-l 使用者名稱] [-p ssh 連接埠] |
啟用安全的 shell 連線。
為遠端連線指定使用者名稱。如果沒有指定 -l 選項, 則會使用啟動 cconsole 公用程式的使用者名稱。
指定要使用的 Secure Shell 連接埠號碼。如果沒有指定 -p 選項,則會使用預設的連接埠號碼 22 以進行安全連線。
clsetup(1CL) 公用程式使您可以互動地配置叢集的法定裝置、資源群組、叢集傳輸、私有主機名稱、裝置群組以及新節點選項。
此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
請參閱 clsetup 線上說明以取得詳細資訊。
此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
以下範例顯示了有關修補程式 110648-05 的資訊。
% showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
顯示 Sun Cluster 發行版本與版本資訊:
% clnode show-rev -v - |
該指令顯示了所有 Sun Cluster 套裝軟體的 Sun Cluster 發行版本編號與版本字串。
以下範例顯示叢集的版次資訊以及所有套件的版本資訊。
% clnode show-rev 3.2 % clnode show-rev -v Sun Cluster 3.2 for Solaris 9 sparc SUNWscr: 3.2.0,REV=2006.02.17.18.11 SUNWscu: 3.2.0,REV=2006.02.17.18.11 SUNWsczu: 3.2.0,REV=2006.02.17.18.11 SUNWscsck: 3.2.0,REV=2006.02.17.18.11 SUNWscnm: 3.2.0,REV=2006.02.17.18.11 SUNWscdev: 3.2.0,REV=2006.02.17.18.11 SUNWscgds: 3.2.0,REV=2006.02.17.18.11 SUNWscman: 3.2.0,REV=2005.10.18.08.42 SUNWscsal: 3.2.0,REV=2006.02.17.18.11 SUNWscsam: 3.2.0,REV=2006.02.17.18.11 SUNWscvm: 3.2.0,REV=2006.02.17.18.11 SUNWmdm: 3.2.0,REV=2006.02.17.18.11 SUNWscmasa: 3.2.0,REV=2006.02.17.18.11 SUNWscmautil: 3.2.0,REV=2006.02.17.18.11 SUNWscmautilr: 3.2.0,REV=2006.02.17.18.11 SUNWjfreechart: 3.2.0,REV=2006.02.17.18.11 SUNWscva: 3.2.0,REV=2006.02.17.18.11 SUNWscspm: 3.2.0,REV=2006.02.17.18.11 SUNWscspmu: 3.2.0,REV=2006.02.17.18.11 SUNWscspmr: 3.2.0,REV=2006.02.17.18.11 SUNWscderby: 3.2.0,REV=2006.02.17.18.11 SUNWsctelemetry: 3.2.0,REV=2006.02.17.18.11 SUNWscrsm: 3.2.0,REV=2006.02.17.18.11 SUNWcsc: 3.2.0,REV=2006.02.21.10.16 SUNWcscspm: 3.2.0,REV=2006.02.21.10.16 SUNWcscspmu: 3.2.0,REV=2006.02.21.10.16 SUNWdsc: 3.2.0,REV=2006.02.21.10.09 SUNWdscspm: 3.2.0,REV=2006.02.21.10.09 SUNWdscspmu: 3.2.0,REV=2006.02.21.10.09 SUNWesc: 3.2.0,REV=2006.02.21.10.11 SUNWescspm: 3.2.0,REV=2006.02.21.10.11 SUNWescspmu: 3.2.0,REV=2006.02.21.10.11 SUNWfsc: 3.2.0,REV=2006.02.21.10.06 SUNWfscspm: 3.2.0,REV=2006.02.21.10.06 SUNWfscspmu: 3.2.0,REV=2006.02.21.10.06 SUNWhsc: 3.2.0,REV=2006.02.21.10.20 SUNWhscspm: 3.2.0,REV=2006.02.21.10.20 SUNWhscspmu: 3.2.0,REV=2006.02.21.10.20 SUNWjsc: 3.2.0,REV=2006.02.21.10.22 SUNWjscman: 3.2.0,REV=2006.02.21.10.22 SUNWjscspm: 3.2.0,REV=2006.02.21.10.22 SUNWjscspmu: 3.2.0,REV=2006.02.21.10.22 SUNWksc: 3.2.0,REV=2006.02.21.10.14 SUNWkscspm: 3.2.0,REV=2006.02.21.10.14 SUNWkscspmu: 3.2.0,REV=2006.02.21.10.14 |
您也可使用 Sun Cluster Manager GUI 來完成此程序。請參閱第 12 章, 利用圖形使用者介面管理 Sun Cluster或參閱 Sun Cluster Manager 線上說明以取得更多資訊。
此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
非超級使用者身分的使用者,需要 solaris.cluster.read RBAC 授權才可使用此子指令。
顯示叢集已配置的資源類型、資源群組與資源。
% cluster show -t resource,resourcetype,resourcegroup |
如需關於個別資源、資源群組以及資源類型的資訊,請搭配下列其中一個指令使用 show 子指令:
resource
resource group
resourcetype
以下範例顯示配置給叢集 schost 的資源類型 (RT Name)、資源群組 (RG Name) 與資源 (RS Name)。
% cluster show resource,resourcetype,resourcegroup
=== Registered Resource Types ===
Resource Type: SUNW.qfs
RT_description: SAM-QFS Agent on SunCluster
RT_version: 3.1
API_version: 3
RT_basedir: /opt/SUNWsamfs/sc/bin
Single_instance: False
Proxy: False
Init_nodes: All potential masters
Installed_nodes: <All>
Failover: True
Pkglist: <NULL>
RT_system: False
=== Resource Groups and Resources ===
Resource Group: qfs-rg
RG_description: <NULL>
RG_mode: Failover
RG_state: Managed
Failback: False
Nodelist: phys-schost-2 phys-schost-1
--- Resources for Group qfs-rg ---
Resource: qfs-res
Type: SUNW.qfs
Type_version: 3.1
Group: qfs-rg
R_description:
Resource_project_name: default
Enabled{phys-schost-2}: True
Enabled{phys-schost-1}: True
Monitored{phys-schost-2}: True
Monitored{phys-schost-1}: True
|
您也可使用 Sun Cluster Manager GUI 來完成此程序。請參閱 Sun Cluster Manager 線上說明,以取得詳細資訊。
此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
非超級使用者身分的使用者,需要 solaris.cluster.read RBAC 授權才可使用 status 子指令。
下列範例提供叢集 cluster(1CL) status 傳回的叢集元件的狀況資訊範例。
% cluster status
=== Cluster Nodes ===
--- Node Status ---
Node Name Status
--------- ------
phys-schost-1 Online
phys-schost-2 Online
=== Cluster Transport Paths ===
Endpoint1 Endpoint2 Status
--------- --------- ------
phys-schost-1:qfe1 phys-schost-4:qfe1 Path online
phys-schost-1:hme1 phys-schost-4:hme1 Path online
=== Cluster Quorum ===
--- Quorum Votes Summary ---
Needed Present Possible
------ ------- --------
3 3 4
--- Quorum Votes by Node ---
Node Name Present Possible Status
--------- ------- -------- ------
phys-schost-1 1 1 Online
phys-schost-2 1 1 Online
--- Quorum Votes by Device ---
Device Name Present Possible Status
----------- ------- -------- ------
/dev/did/rdsk/d2s2 1 1 Online
/dev/did/rdsk/d8s2 0 1 Offline
=== Cluster Device Groups ===
--- Device Group Status ---
Device Group Name Primary Secondary Status
----------------- ------- --------- ------
schost-2 phys-schost-2 - Degraded
--- Spare, Inactive, and In Transition Nodes ---
Device Group Name Spare Nodes Inactive Nodes In Transistion Nodes
----------------- ----------- -------------- --------------------
schost-2 - - -
=== Cluster Resource Groups ===
Group Name Node Name Suspended Status
---------- --------- --------- ------
test-rg phys-schost-1 No Offline
phys-schost-2 No Online
test-rg phys-schost-1 No Offline
phys-schost-2 No Error--stop failed
test-rg phys-schost-1 No Online
phys-schost-2 No Online
=== Cluster Resources ===
Resource Name Node Name Status Message
------------- --------- ------ -------
test_1 phys-schost-1 Offline Offline
phys-schost-2 Online Online
test_1 phys-schost-1 Offline Offline
phys-schost-2 Stop failed Faulted
test_1 phys-schost-1 Online Online
phys-schost-2 Online Online
Device Instance Node Status
--------------- ---- ------
/dev/did/rdsk/d2 phys-schost-1 Ok
/dev/did/rdsk/d3 phys-schost-1 Ok
phys-schost-2 Ok
/dev/did/rdsk/d4 phys-schost-1 Ok
phys-schost-2 Ok
/dev/did/rdsk/d6 phys-schost-2 Ok
|
您也可使用 Sun Cluster Manager GUI 來完成此程序。請參閱 Sun Cluster Manager 線上說明,以取得詳細資訊。
此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
若要檢查 IP 網路多重路徑群組的狀態,請搭配 status子指令使用 clnode(1CL) 指令。
非超級使用者身分的使用者,需要 solaris.cluster.read RBAC 授權才可使用此子指令。
以下範例顯示 clnode status 指令傳回的叢集元件的狀態資訊範本。
% clnode status -m --- Node IPMP Group Status --- Node Name Group Name Status Adapter Status --------- ---------- ------ ------- ------ phys-schost-1 test-rg Online qfe1 Online phys-schost-2 test-rg Online qfe1 Online |
您也可使用 Sun Cluster Manager GUI 來完成此程序。請參閱 Sun Cluster Manager 線上說明,以取得詳細資訊。
此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令。
非超級使用者身分的使用者,需要 solaris.cluster.read RBAC 授權才可使用 status 子指令。
檢視叢集配置
% cluster show |
若要使用 cluster 指令顯示更多資訊,請使用詳細的選項。請參閱 cluster(1CL) 線上手冊以取得詳細資訊。
以下範例列出叢集配置。
% cluster show |
=== Cluster ===
Cluster Name: cluster-1
installmode: disabled
heartbeat_timeout: 10000
heartbeat_quantum: 1000
private_netaddr: 172.16.0.0
private_netmask: 255.255.248.0
max_nodes: 64
max_privatenets: 10
global_fencing: Unknown
Node List: phys-schost-1
Node Zones: phys_schost-2:za
=== Host Access Control ===
Cluster name: clustser-1
Allowed hosts: phys-schost-1, phys-schost-2:za
Authentication Protocol: sys
=== Cluster Nodes ===
Node Name: phys-schost-1
Node ID: 1
Type: cluster
Enabled: yes
privatehostname: clusternode1-priv
reboot_on_path_failure: disabled
globalzoneshares: 3
defaultpsetmin: 1
quorum_vote: 1
quorum_defaultvote: 1
quorum_resv_key: 0x43CB1E1800000001
Transport Adapter List: qfe3, hme0
--- Transport Adapters for phys-schost-1 ---
Transport Adapter: qfe3
Adapter State: Enabled
Adapter Transport Type: dlpi
Adapter Property(device_name): qfe
Adapter Property(device_instance): 3
Adapter Property(lazy_free): 1
Adapter Property(dlpi_heartbeat_timeout): 10000
Adapter Property(dlpi_heartbeat_quantum): 1000
Adapter Property(nw_bandwidth): 80
Adapter Property(bandwidth): 10
Adapter Property(ip_address): 172.16.1.1
Adapter Property(netmask): 255.255.255.128
Adapter Port Names: 0
Adapter Port State(0): Enabled
Transport Adapter: hme0
Adapter State: Enabled
Adapter Transport Type: dlpi
Adapter Property(device_name): hme
Adapter Property(device_instance): 0
Adapter Property(lazy_free): 0
Adapter Property(dlpi_heartbeat_timeout): 10000
Adapter Property(dlpi_heartbeat_quantum): 1000
Adapter Property(nw_bandwidth): 80
Adapter Property(bandwidth): 10
Adapter Property(ip_address): 172.16.0.129
Adapter Property(netmask): 255.255.255.128
Adapter Port Names: 0
Adapter Port State(0): Enabled
--- SNMP MIB Configuration on phys-schost-1 ---
SNMP MIB Name: Event
State: Disabled
Protocol: SNMPv2
--- SNMP Host Configuration on phys-schost-1 ---
--- SNMP User Configuration on phys-schost-1 ---
SNMP User Name: foo
Authentication Protocol: MD5
Default User: No
Node Name: phys-schost-2:za
Node ID: 2
Type: cluster
Enabled: yes
privatehostname: clusternode2-priv
reboot_on_path_failure: disabled
globalzoneshares: 1
defaultpsetmin: 2
quorum_vote: 1
quorum_defaultvote: 1
quorum_resv_key: 0x43CB1E1800000002
Transport Adapter List: hme0, qfe3
--- Transport Adapters for phys-schost-2 ---
Transport Adapter: hme0
Adapter State: Enabled
Adapter Transport Type: dlpi
Adapter Property(device_name): hme
Adapter Property(device_instance): 0
Adapter Property(lazy_free): 0
Adapter Property(dlpi_heartbeat_timeout): 10000
Adapter Property(dlpi_heartbeat_quantum): 1000
Adapter Property(nw_bandwidth): 80
Adapter Property(bandwidth): 10
Adapter Property(ip_address): 172.16.0.130
Adapter Property(netmask): 255.255.255.128
Adapter Port Names: 0
Adapter Port State(0): Enabled
Transport Adapter: qfe3
Adapter State: Enabled
Adapter Transport Type: dlpi
Adapter Property(device_name): qfe
Adapter Property(device_instance): 3
Adapter Property(lazy_free): 1
Adapter Property(dlpi_heartbeat_timeout): 10000
Adapter Property(dlpi_heartbeat_quantum): 1000
Adapter Property(nw_bandwidth): 80
Adapter Property(bandwidth): 10
Adapter Property(ip_address): 172.16.1.2
Adapter Property(netmask): 255.255.255.128
Adapter Port Names: 0
Adapter Port State(0): Enabled
--- SNMP MIB Configuration on phys-schost-2 ---
SNMP MIB Name: Event
State: Disabled
Protocol: SNMPv2
--- SNMP Host Configuration on phys-schost-2 ---
--- SNMP User Configuration on phys-schost-2 ---
=== Transport Cables ===
Transport Cable: phys-schost-1:qfe3,switch2@1
Cable Endpoint1: phys-schost-1:qfe3
Cable Endpoint2: switch2@1
Cable State: Enabled
Transport Cable: phys-schost-1:hme0,switch1@1
Cable Endpoint1: phys-schost-1:hme0
Cable Endpoint2: switch1@1
Cable State: Enabled
Transport Cable: phys-schost-2:hme0,switch1@2
Cable Endpoint1: phys-schost-2:hme0
Cable Endpoint2: switch1@2
Cable State: Enabled
Transport Cable: phys-schost-2:qfe3,switch2@2
Cable Endpoint1: phys-schost-2:qfe3
Cable Endpoint2: switch2@2
Cable State: Enabled
=== Transport Switches ===
Transport Switch: switch2
Switch State: Enabled
Switch Type: switch
Switch Port Names: 1 2
Switch Port State(1): Enabled
Switch Port State(2): Enabled
Transport Switch: switch1
Switch State: Enabled
Switch Type: switch
Switch Port Names: 1 2
Switch Port State(1): Enabled
Switch Port State(2): Enabled
=== Quorum Devices ===
Quorum Device Name: d3
Enabled: yes
Votes: 1
Global Name: /dev/did/rdsk/d3s2
Type: scsi
Access Mode: scsi2
Hosts (enabled): phys-schost-1, phys-schost-2
Quorum Device Name: qs1
Enabled: yes
Votes: 1
Global Name: qs1
Type: quorum_server
Hosts (enabled): phys-schost-1, phys-schost-2
Quorum Server Host: 10.11.114.83
Port: 9000
=== Device Groups ===
Device Group Name: testdg3
Type: SVM
failback: no
Node List: phys-schost-1, phys-schost-2
preferenced: yes
numsecondaries: 1
diskset name: testdg3
=== Registered Resource Types ===
Resource Type: SUNW.LogicalHostname:2
RT_description: Logical Hostname Resource Type
RT_version: 2
API_version: 2
RT_basedir: /usr/cluster/lib/rgm/rt/hafoip
Single_instance: False
Proxy: False
Init_nodes: All potential masters
Installed_nodes: <All>
Failover: True
Pkglist: SUNWscu
RT_system: True
Resource Type: SUNW.SharedAddress:2
RT_description: HA Shared Address Resource Type
RT_version: 2
API_version: 2
RT_basedir: /usr/cluster/lib/rgm/rt/hascip
Single_instance: False
Proxy: False
Init_nodes: <Unknown>
Installed_nodes: <All>
Failover: True
Pkglist: SUNWscu
RT_system: True
Resource Type: SUNW.HAStoragePlus:4
RT_description: HA Storage Plus
RT_version: 4
API_version: 2
RT_basedir: /usr/cluster/lib/rgm/rt/hastorageplus
Single_instance: False
Proxy: False
Init_nodes: All potential masters
Installed_nodes: <All>
Failover: False
Pkglist: SUNWscu
RT_system: False
Resource Type: SUNW.haderby
RT_description: haderby server for Sun Cluster
RT_version: 1
API_version: 7
RT_basedir: /usr/cluster/lib/rgm/rt/haderby
Single_instance: False
Proxy: False
Init_nodes: All potential masters
Installed_nodes: <All>
Failover: False
Pkglist: SUNWscderby
RT_system: False
Resource Type: SUNW.sctelemetry
RT_description: sctelemetry service for Sun Cluster
RT_version: 1
API_version: 7
RT_basedir: /usr/cluster/lib/rgm/rt/sctelemetry
Single_instance: True
Proxy: False
Init_nodes: All potential masters
Installed_nodes: <All>
Failover: False
Pkglist: SUNWsctelemetry
RT_system: False
=== Resource Groups and Resources ===
Resource Group: HA_RG
RG_description: <Null>
RG_mode: Failover
RG_state: Managed
Failback: False
Nodelist: phys-schost-1 phys-schost-2
--- Resources for Group HA_RG ---
Resource: HA_R
Type: SUNW.HAStoragePlus:4
Type_version: 4
Group: HA_RG
R_description:
Resource_project_name: SCSLM_HA_RG
Enabled{phys-schost-1}: True
Enabled{phys-schost-2}: True
Monitored{phys-schost-1}: True
Monitored{phys-schost-2}: True
Resource Group: cl-db-rg
RG_description: <Null>
RG_mode: Failover
RG_state: Managed
Failback: False
Nodelist: phys-schost-1 phys-schost-2
--- Resources for Group cl-db-rg ---
Resource: cl-db-rs
Type: SUNW.haderby
Type_version: 1
Group: cl-db-rg
R_description:
Resource_project_name: default
Enabled{phys-schost-1}: True
Enabled{phys-schost-2}: True
Monitored{phys-schost-1}: True
Monitored{phys-schost-2}: True
Resource Group: cl-tlmtry-rg
RG_description: <Null>
RG_mode: Scalable
RG_state: Managed
Failback: False
Nodelist: phys-schost-1 phys-schost-2
--- Resources for Group cl-tlmtry-rg ---
Resource: cl-tlmtry-rs
Type: SUNW.sctelemetry
Type_version: 1
Group: cl-tlmtry-rg
R_description:
Resource_project_name: default
Enabled{phys-schost-1}: True
Enabled{phys-schost-2}: True
Monitored{phys-schost-1}: True
Monitored{phys-schost-2}: True
=== DID Device Instances ===
DID Device Name: /dev/did/rdsk/d1
Full Device Path: phys-schost-1:/dev/rdsk/c0t2d0
Replication: none
default_fencing: global
DID Device Name: /dev/did/rdsk/d2
Full Device Path: phys-schost-1:/dev/rdsk/c1t0d0
Replication: none
default_fencing: global
DID Device Name: /dev/did/rdsk/d3
Full Device Path: phys-schost-2:/dev/rdsk/c2t1d0
Full Device Path: phys-schost-1:/dev/rdsk/c2t1d0
Replication: none
default_fencing: global
DID Device Name: /dev/did/rdsk/d4
Full Device Path: phys-schost-2:/dev/rdsk/c2t2d0
Full Device Path: phys-schost-1:/dev/rdsk/c2t2d0
Replication: none
default_fencing: global
DID Device Name: /dev/did/rdsk/d5
Full Device Path: phys-schost-2:/dev/rdsk/c0t2d0
Replication: none
default_fencing: global
DID Device Name: /dev/did/rdsk/d6
Full Device Path: phys-schost-2:/dev/rdsk/c1t0d0
Replication: none
default_fencing: global
=== NAS Devices ===
Nas Device: nas_filer1
Type: netapp
User ID: root
Nas Device: nas2
Type: netapp
User ID: llai
|
sccheck(1M) 指令會執行一系列檢查,以驗證叢集所需的基本配置是否運作正常。如果所有檢查均順利完成,sccheck 將返回到 shell 提示符號。如果有某個檢查失敗,則 sccheck 將在指定的或預設的輸出目錄中產生報告。如果您對一個以上的節點執行 sccheck,sccheck 將會產生一個針對各個節點的報告和一個針對多個節點檢查的報告。
sccheck 指令分兩個步驟執行﹕資料收集與分析。依據系統配置的不同,資料收集可能會很費時。您可在詳細模式中搭配 -v1 旗標一起執行 sccheck 以列印進度訊息。或者,特別是在資料收集期間,您可使用 -v2 旗標在高度詳細模式中執行 sccheck,其可列印更詳細的進度訊息。
請於執行完某個可能導致裝置、磁碟區管理元件或 Sun Cluster 配置變更的管理程序之後,執行 sccheck。
以下範例顯示針對節點 phys-schost-1 和 phys-schost-2 在詳細模式中執行的 sccheck,且所有檢查全部通過。
# sccheck -v1 -h phys-schost-1,phys-schost-2 sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished # |
以下範例顯示缺少掛載點 /global/phys-schost-1 的叢集 suncluster 中的節點 phys-schost-2。報告建立在輸出目錄 /var/cluster/sccheck/myReports/ 中。
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
sccheck(1M) 指令將會檢查 /etc/vfstab 檔案以驗證叢集檔案系統及其全域掛載點是否存在配置錯誤。
請在進行影響裝置或磁碟區管理元件的叢集配置變更之後,執行 sccheck。
以下範例顯示缺少掛載點 /global/schost-1 的叢集 suncluster 之節點 phys-schost-2。報告已傳送至輸出目錄 /var/cluster/sccheck/myReports/。
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |
/var/cluster/logs/commandlog ASCII 文字檔案包含執行於叢集中所選取的 Sun Cluster 指令的記錄。當您設定叢集時,會自動開始記錄指令,而當您關閉叢集時,則會結束記錄。指令會記錄至所有在叢集模式中開啟與啟動的節點。
未記錄到此檔案的的指令包括顯示叢集配置與目前狀態的指令。
記錄在此檔案中的指令包括配置與變更叢集目前狀態的指令:
claccess
cldevice
cldevicegroup
clinterconnect
clnasdevice
clnode
clquorum
clreslogicalhostname
clresource
clresourcegroup
clresourcetype
clressharedaddress
clsetup
clsnmphost
clsnmpmib
clnsmpuser
cltelemetryattribute
cluster
scconf
scdidadm
scdpm
scgdevs
scrgadm
scsetup
scshutdown
scswitch
commandlog 檔案中的記錄可包含下列元素:
日期和時間戳記
執行指令的主機名稱
指令的程序 ID
執行指令的使用者登入名稱
使用者執行的指令,包含所有選項和運算元
在 commandlog 檔案中會使用引號標示指令選項,可讓您很快地在 shell 中辨識、複製、貼上與執行它們。
已執行指令的結束狀況
如果指令因不明原因異常中斷,Sun Cluster 不會在 commandlog 檔案中顯示結束狀況。
根據預設,commandlog 檔案會定期歸檔,且一週一次。若要變更 commandlog 檔案的歸檔策略,請在叢集中的每個節點上使用 crontab 指令。請參閱 crontab(1) 線上手冊以取得更多資訊。
Sun Cluster 可於任何時間在各個叢集節點上最多維護 8 個先前已歸檔的 commandlog 檔案。目前這週的 commandlog 檔案命名為 commandlog。最新完成的週檔案命名為 commandlog.0 。最舊完成的週檔案被命名為 commandlog.7。
檢視目前這週的 commandlog 檔案內容,一次一個畫面。
# more /var/cluster/logs/commandlog |
下列範例顯示 more 指令所顯示的 commandlog 內容。
more -lines10 /var/cluster/logs/commandlog 11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup 11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1" 11/11/2006 09:43:36 phys-schost-1 5758 root END 0 11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y "RG_description=Department Shared Address RG" "app-sa-1" 11/11/2006 09:43:37 phys-schost-1 5760 root END 0 11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1" 11/11/2006 09:44:15 phys-schost-1 5810 root END 0 11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320 12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1" -y "RG_description=Joe Bloggs Shared Address RG" 12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0 |