表 1–2 提供了管理叢集的起點。
表 1–2 Sun Cluster 3.1 4/04 管理工具
作業 |
工具 |
說明文件 |
---|---|---|
從遠端登入叢集 |
使用 ccp 指令啟動「叢集控制面板」(CCP)。 然後選取下列一種圖示: cconsole(1M)、crlogin(1M) 或 ctelnet(1M)。 | |
以互動方式配置叢集 |
啟動 scsetup( 1M) 公用程式。 | |
顯示 Sun Cluster 版次編號與版本資訊 |
搭配 -p 或 -pv 選項使用 scinstall (1M) 指令。 | |
顯示已安裝的資源、資源群組與資源類型 註解 – 當執行 scrgadm 時,資源類型、資源群組及資源屬性名稱不需區分大小寫。 |
使用 scrgadm(1M) -p 指令。 | |
以圖形方式監視叢集元件 |
使用 SunPlex Manager 或 Sun Management Center 的 Sun Cluster 模組 (僅在基於 SPARC 的系統上之 Sun Cluster 中可用)。 |
Sun Management Center 線上說明的 SunPlex Manager 或 Sun Cluster 模組 |
以圖形方式管理某些叢集元件 |
使用 SunPlex Manager 或 Sun Management Center 的 Sun Cluster 模組 (僅在基於 SPARC 的系統上之 Sun Cluster 中可用)。 |
Sun Management Center 線上說明的 SunPlex Manager 或 Sun Cluster 模組 |
檢查叢集元件的狀態 |
使用 scstat( 1M) 指令。 | |
檢查公用網路上「IP 網路多重路徑群組」(IP Network Multipathing Group) 的狀態 |
搭配 -i 選項使用 scstat( 1M) 指令。 | |
檢視叢集配置 |
使用 scconf( 1M) -p 指令。 | |
檢查整體裝載點 |
使用 sccheck( 1M) 指令。 | |
查看 Sun Cluster 系統訊息 |
檢查 /var/adm/messages 檔。 |
System Administration Guide: Advanced Administration中的 Solaris 9 System Administrator Collection“Viewing System Messages” |
監視 Solstice DiskSuite 的狀態 |
使用 metastat 指令。 |
Solstice DiskSuite/Solaris Volume Manager說明文件 |
如果執行 Solaris 8 的話,則監視 VERITAS Volume Manager 的狀態。 |
使用 vxstat 或 vxva 指令。 |
VERITAS Volume Manager說明文件 |
如果執行 Solaris 9 的話,則監視 Solaris 容體管理程式的狀態。 |
使用 svmstat 指令 |
叢集控制面板 (CCP) 提供了一個 cconsole(1M)、crlogin(1M) 以及 ctelnet(1M) 工具所需要的啟動台。 這三種工具都會開啟連到一組指定節點的視窗。 這個多重視窗連接是由每一個指定節點的主視窗以及一個共通視窗所組成。 在共通視窗中輸入便可將指令輸入傳到每一個主視窗,讓您能夠同時在所有叢集節點上執行指令。 請參閱 ccp( 1M) 及 cconsole( 1M) 線上援助頁,以取得詳細資訊。
請在開始執行 CCP 之前,確認是否符合以下必備條件。
在管理主控台上安裝 SUNWccon 套件。
確定管理主控台上的 PATH 變數包含 Sun Cluster 工具目錄,即 /opt/SUNWcluster/bin 及 /usr/cluster/bin。 您可藉由設定 $CLUSTER_HOME 環境變數來改變工具目錄位置。
如果您使用終端機集線器的話,請配置 clusters 檔、serialports 檔及 nsswitch.conf 檔。 這些檔案可以是 /etc 檔或 NIS/NIS+ 資料庫。 請參閱 clusters( 4) 和 serialports( 4),以取得詳細資訊。
判斷是否有 Sun Enterprise 10000 server平台。
如果沒有,請至 步驟 3。
如果有,請使用 netcon 指令來登入並連上「系統服務處理器」(SSP)。 建立連線之後,請輸入 Shift~@ 以解除主控台鎖定並取得寫入權。
啟動 CCP 啟動台。
請從管理主控台,輸入下列指令。
# ccp clustername |
出現 CCP 啟動台。
要啟動叢集的遠端階段作業,請按一下 CCP 啟動台中的 cconsole、crlogin 或 ctelnet 圖示。
您也可以從指令行啟動 cconsole、crlogin 或 ctelnet 階段作業。
scsetup(1M) 公用程式可讓您以互動方式配置法定數目、資源群組、叢集傳輸、專用主機名稱、裝置群組,以及叢集的新增節點選項。
成為叢集中任何節點的超級使用者。
輸入 scsetup 公用程式。
# scsetup |
顯示 Main Menu。
從功能表選取配置。 依照螢幕上的指示完成作業。
請參閱 scsetup 線上說明,以取得詳細資訊。
顯示 Sun Cluster 修補程式編號。
Sun Cluster 更新版次是透過主產品修補程式編號及更新版本來作確認。
% showrev -p |
顯示所有 Sun Cluster 套件的 Sun Cluster 版次編號以及版本文字。
% scinstall -pv |
以下範例顯示叢集的版次編號。
% showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
以下範例顯示叢集的版次資訊以及所有套件的版本資訊。
% scinstall -pv SunCluster 3.1 SUNWscr: 3.1.0,REV=2000.10.01.01.00 SUNWscdev: 3.1.0,REV=2000.10.01.01.00 SUNWscu: 3.1.0,REV=2000.10.01.01.00 SUNWscman: 3.1.0,REV=2000.10.01.01.00 SUNWscsal: 3.1.0,REV=2000.10.01.01.00 SUNWscsam: 3.1.0,REV=2000.10.01.01.00 SUNWscvm: 3.1.0,REV=2000.10.01.01.00 SUNWmdm: 4.2.1,REV=2000.08.08.10.01 |
您也可使用 SunPlex Manager GUI 來完成此程序。 請參考第 10章, 使用圖形化使用者介面管理 Sun Cluster。 請參閱 SunPlex Manager 線上說明,以取得詳細資訊。
您不必登入成超級使用者即可執行此程序。
顯示叢集已配置的資源類型、資源群組與資源。
% scrgadm -p |
以下範例顯示配置給叢集 schost 的資源類型 (RT Name)、資源群組 (RG Name) 與資源 (RS Name)。
% scrgadm -p RT Name: SUNW.SharedAddress RT Description: HA Shared Address Resource Type RT Name: SUNW.LogicalHostname RT Description: Logical Hostname Resource Type RG Name: schost-sa-1 RG Description: RS Name: schost-1 RS Description: RS Type: SUNW.SharedAddress RS Resource Group: schost-sa-1 RG Name: schost-lh-1 RG Description: RS Name: schost-3 RS Description: RS Type: SUNW.LogicalHostname RS Resource Group: schost-lh-1 |
您也可使用 SunPlex Manager GUI 來完成此程序。 請參閱 SunPlex Manager 線上說明,以取得詳細資訊。
您不必登入成超級使用者即可執行此程序。
檢查叢集元件的狀態。
% scstat -p |
以下範例顯示 scstat( 1M) 傳回的叢集元件狀態資訊。
% scstat -p -- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online Cluster node: phys-schost-3 Online Cluster node: phys-schost-4 Online ------------------------------------------------------------------ -- Cluster Transport Paths -- Endpoint Endpoint Status -------- -------- ------ Transport path: phys-schost-1:qfe1 phys-schost-4:qfe1 Path online Transport path: phys-schost-1:hme1 phys-schost-4:hme1 Path online ... ------------------------------------------------------------------ -- Quorum Summary -- Quorum votes possible: 6 Quorum votes needed: 4 Quorum votes present: 6 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ Node votes: phys-schost-1 1 1 Online Node votes: phys-schost-2 1 1 Online ... -- Quorum Votes by Device -- Device Name Present Possible Status ----------- ------- -------- ------ Device votes: /dev/did/rdsk/d2s2 1 1 Online Device votes: /dev/did/rdsk/d8s2 1 1 Online ... -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: rmt/1 - - Device group servers: rmt/2 - - Device group servers: schost-1 phys-schost-2 phys-schost-1 Device group servers: schost-3 - - -- Device Group Status -- Device Group Status ------------ ------ Device group status: rmt/1 Offline Device group status: rmt/2 Offline Device group status: schost-1 Online Device group status: schost-3 Offline ------------------------------------------------------------------ -- Resource Groups and Resources -- Group Name Resources ---------- --------- Resources: test-rg test_1 Resources: real-property-rg - Resources: failover-rg - Resources: descript-rg-1 - ... -- Resource Groups -- Group Name Node Name State ---------- --------- ----- Group: test-rg phys-schost-1 Offline Group: test-rg phys-schost-2 Offline ... -- Resources -- Resource Name Node Name State Status Message ------------- --------- ----- -------------- Resource: test_1 phys-schost-1 Offline Offline Resource: test_1 phys-schost-2 Offline Offline ----------------------------------------------------------------- -- IPMP Groups -- Node Name Group Status Adapter Status --------- ----- ------ ------- ------ IPMP Group: phys-schost-1 sc_ipmp0 Online qfe1 Online IPMP Group: phys-schost-2 sc_ipmp0 Online qfe1 Online ------------------------------------------------------------------ |
您也可使用 SunPlex Manager GUI 來完成此程序。 請參閱 SunPlex Manager 線上說明,以取得詳細資訊。
您不必登入成超級使用者即可執行此程序。
若要檢查「IP 網路多重路徑」(IP Network Multipathing) 群組的狀態,請使用 scstat(1M) 指令。
以下範例顯示 scstat -i 傳回的叢集元件的狀態資訊。
% scstat -i ----------------------------------------------------------------- -- IPMP Groups -- Node Name Group Status Adapter Status --------- ----- ------ ------- ------ IPMP Group: phys-schost-1 sc_ipmp1 Online qfe2 Online IPMP Group: phys-schost-1 sc_ipmp0 Online qfe1 Online IPMP Group: phys-schost-2 sc_ipmp1 Online qfe2 Online IPMP Group: phys-schost-2 sc_ipmp0 Online qfe1 Online ------------------------------------------------------------------ |
您也可使用 SunPlex Manager GUI 來完成此程序。 請參閱 SunPlex Manager 線上說明,以取得詳細資訊。
您不必登入成超級使用者即可執行此程序。
檢視叢集配置
% scconf -p |
若要顯示使用 scconf 指令的詳細資訊,請使用 冗長選項。 請參閱 scconf( 1M) 線上援助頁,以取得詳細資訊。
以下範例列出叢集配置。
% scconf -p Cluster name: cluster-1 Cluster ID: 0x3908EE1C Cluster install mode: disabled Cluster private net: 172.16.0.0 Cluster private netmask: 255.255.0.0 Cluster new node authentication: unix Cluster new node list: <NULL - Allow any node> Cluster nodes: phys-schost-1 phys-schost-2 phys-schost-3 phys-schost-4 Cluster node name: phys-schost-1 Node ID: 1 Node enabled: yes Node private hostname: clusternode1-priv Node quorum vote count: 1 Node reservation key: 0x3908EE1C00000001 Node transport adapters: hme1 qfe1 qfe2 Node transport adapter: hme1 Adapter enabled: yes Adapter transport type: dlpi Adapter property: device_name=hme Adapter property: device_instance=1 Adapter property: dlpi_heartbeat_timeout=10000 ... Cluster transport junctions: hub0 hub1 hub2 Cluster transport junction: hub0 Junction enabled: yes Junction type: switch Junction port names: 1 2 3 4 ... Junction port: 1 Port enabled: yes Junction port: 2 Port enabled: yes ... Cluster transport cables Endpoint Endpoint State -------- -------- ----- Transport cable: phys-schost-1:hme1@0 hub0@1 Enabled Transport cable: phys-schost-1:qfe1@0 hub1@1 Enabled Transport cable: phys-schost-1:qfe2@0 hub2@1 Enabled Transport cable: phys-schost-2:hme1@0 hub0@2 Enabled ... Quorum devices: d2 d8 Quorum device name: d2 Quorum device votes: 1 Quorum device enabled: yes Quorum device name: /dev/did/rdsk/d2s2 Quorum device hosts (enabled): phys-schost-1 phys-schost-2 Quorum device hosts (disabled): ... Device group name: schost-3 Device group type: SVM Device group failback enabled: no Device group node list: phys-schost-3, phys-schost-4 Diskset name: schost-3 |
sccheck(1M) 指令執行一系列檢查,以驗證叢集正確執行所需的基本配置。 如果所有檢查均順利完成,sccheck 將返回到 shell 提示符號。 如果有某個檢查失敗,則 sccheck 將在指定的或預設的輸出目錄中產生報告。 如果您對一個以上的節點執行 sccheck,sccheck 將會產生一個針對各個節點的報告和一個針對多個節點檢查的報告。
sccheck 指令分兩個步驟執行﹕ 資料收集與分析。 依據系統配置的不同,資料收集可能會很費時。 您可以使用 -v1 旗標在冗長模式中呼叫 sccheck 來列印進度訊息,或者您可以使用 -v2 旗標在特別冗長的模式中執行 sccheck,在此模式下,可以列印更詳細的進度訊息,尤其是在資料收集期間。
請於執行完某個可能導致裝置、容體管理元件或 Sun Cluster 配置變更的管理程序之後,執行 sccheck。
以下範例說明了針對節點 phys-schost-1 與 phys-schost-2 在冗長模式中執行的 sccheck,且所有檢查全部通過。
# sccheck -v1 -h phys-schost-1,phys-schost-2 sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished # |
以下範例說明了叢集 suncluster 中的節點 phys-schost-2 遺漏了裝載點 /global/phys-schost-1。 報告建立在輸出目錄 /var/cluster/sccheck/myReports/ 中。
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
sccheck(1M) 指令包含使用叢集檔案系統及其整體裝載點檢查 /etc/vfstab 檔案配置錯誤的檢查。
請在進行影響裝置或容體管理元件的叢集配置變更之後,執行 sccheck。
以下範例說明了遺漏了裝載點 /global/schost-1 的叢集 suncluster 中的節點 phys-schost-2。 正在將報告傳送至輸出目錄 /var/cluster/sccheck/myReports/
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |