Sun Cluster 系統管理指南(適用於 Solaris 作業系統)

第 1 章 管理 Sun Cluster 的簡介

本章提供下列關於管理叢集以及使用 Sun Cluster 管理工具的程序之相關資訊。

管理 Sun Cluster 的簡介

Sun Cluster 的高度可用環境確保重要的應用程式皆可供一般使用者使用。系統管理員的工作是保證 Sun Cluster 穩定與正常運作。

開始管理作業前,請先自己熟悉「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」「Sun Cluster Concepts Guide for Solaris OS」中的規劃資訊。Sun Cluster 管理分成數項作業,於下列手冊中分別敘述:

在大部分的情況下,在叢集可作業時您可執行 Sun Cluster 管理作業。如果您必須把某個節點移出叢集或甚至關閉該節點,您可在其他節點繼續叢集作業時進行此動作。至於 Solaris 10,除非有其他指示,否則 Sun Cluster 管理作業應於全域區域中執行。對於需要關閉整個叢集才能執行的程序,請將關機時間排定在下班後,以使對系統造成的影響降至最小。如果您計劃關閉叢集或叢集節點,請先通知使用者。

Solaris 作業系統 (Solaris OS) 功能限制

請勿使用 Solaris 10 Service Management Facility (SMF) 管理介面來啟用或停用以下 Sun Cluster 服務。

Sun Cluster 服務 

FMRI 

pnm

svc:/system/cluster/pnm:default

cl_event

svc:/system/cluster/cl_event:default

cl_eventlog

svc:/system/cluster/cl_eventlog:default

rpc_pmf

svc:/system/cluster/rpc_pmf:default

rpc_fed

svc:/system/cluster/rpc_fed:default

rgm

svc:/system/cluster/rgm:default

scdpm

svc:/system/cluster/scdpm:default

cl_ccra

svc:/system/cluster/cl_ccra:default

scsymon_srv

svc:/system/cluster/scsymon_srv:default

spm

svc:/system/cluster/spm:default

cl_svc_cluster_milestone

svc:/system/cluster/cl_svc_cluster_milestone:default

cl_svc_enable

svc:/system/cluster/cl_svc_enable:default

network-multipathing

svc:/system/cluster/network-multipathing

管理工具

您可以使用圖形化使用者介面 (GUI) 或指令行在 Sun Cluster 上執行管理作業。下列小節提供 GUI 及指令行工具的簡介。

圖形化使用者介面

Sun Cluster 支援 GUI 工具,您可使用這些工具在叢集上執行各種管理作業。 這些 GUI 工具即為 Sun Cluster Manager 與 Sun Management Center (如果您在以 SPARC 為基礎的系統上使用 Sun Cluster)。請參閱第 12 章, 利用圖形使用者介面管理 Sun Cluster以得知更多資訊以及關於配置 Sun Cluster Manager 和 Sun Management Center 的程序。關於如何使用 Sun Cluster Manager 的具體資訊,請參閱 GUI 的線上說明。

指令行介面

您可透過 clsetup(1CL) 公用程式,互動執行大部分的 Sun Cluster 管理作業。無論何時,此指南中的管理程序均使用 clsetup 公用程式。

您可以透過 clsetup 公用程式來管理以下的主要功能表項目。

其他您用來管理 Sun Cluster 的指令均列於下列清單。請參閱線上手冊,以取得詳細資訊。

ccp(1M)

啟動叢集的遠端主控台存取。

if_mpadm(1M)

在「IP 網路多重路徑」(IP Network Multipathing) 群組中,將 IP 位址從一張配接卡切換到另一張。

claccess(1CL)

管理 Sun Cluster 存取策略以增加節點。

cldevice(1CL)

管理 Sun Cluster 裝置。

cldevicegroup(1CL)

管理 Sun Cluster 裝置群組。

clinterconnect(1CL)

管理 Sun Cluster 互連。

clnasdevice(1CL)

為 Sun Cluster 管理 NAS 裝置的存取。

clnode(1CL)

管理 Sun Cluster 節點。

clquorum(1CL)

管理 Sun Cluster 法定裝置。

clreslogicalhostname(1CL)

管理 Sun Cluster 資源的邏輯主機名稱。

clresource(1CL)

管理 Sun Cluster 資料服務的資源。

clresourcegroup(1CL)

管理 Sun Cluster 資料服務的資源。

clresourcetype(1CL)

管理 Sun Cluster 資料服務的資源。

clressharedaddress(1CL)

管理 Sun Cluster 資源的共用位址。

clsetup(1CL)

互動配置 Sun Cluster。

clsnmphost(1CL)

管理 Sun Cluster SNMP 主機。

clsnmpmib(1CL)

管理 Sun Cluster SNMP MIB。

clsnmpuser(1CL)

管理 Sun Cluster SNMP 使用者。

cltelemetryattribute(1CL)

配置系統資源監視。

cluster(1CL)

管理 Sun Cluster 的全域配置和全域狀態。

clvxvm

在 Sun Cluster 節點上初始化 VERITAS Volume Manager (VxVM) 並選擇性地執行根磁碟封裝。

另外,您也可以使用指令來管理 Sun Cluster 的磁碟區管理程式部分。這些指令根據您叢集使用的特定磁碟區管理員而定,可能是 Solstice DiskSuiteTM、VERITAS Volume Manager 或 Solaris Volume ManagerTM

準備管理叢集

本節說明如何開始準備管理叢集。

製作 Sun Cluster 硬體配置的文件

在您的 Sun Cluster 配置延伸時,記錄您的網站特有的硬體層面。若欲節省管理上的人力資源,當您變更或升級叢集時,請參閱您的硬體文件。將連接各種不同叢集元件的電纜和連線做標記,也可使管理更為簡易。

藉由保留您的原始叢集配置及後續變更的記錄,減少協力廠商服務提供者為您的叢集提供服務時所需的時間。

使用管理主控台

您可使用專屬的工作站或透過管理網路連線的工作站作為管理主控台,以管理使用中的叢集。通常,您是在管理主控台上安裝與執行「叢集控制面板」(CCP) 與圖形化使用者介面 (GUI) 工具。如需有關 CCP 的更多資訊,請參閱如何從遠端登入叢集。如需有關安裝 Sun Management Center 與 Sun Cluster Manager GUI 工具之叢集控制面板模組的說明,請參閱「Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)」

管理主控台並非叢集節點。管理主控台是用來以遠端方式存取叢集節點,透過公用網路或以網路為基礎的終端機集線器。

如果您的 SPARC 叢集由 Sun EnterpriseTM 10000 伺服器組成,則必須從管理主控台登入系統服務處理器 (SSP)。請使用 netcon 指令來連線。netcon 連接 Sun Enterprise 10000 網域的預設方法是透過網路介面。如果無法存取網路,您可透過設定 -f 選項,在「專用」模式中使用 netcon。您也可以在正常的 netcon 階段作業中傳送 ~*。如果網路無法使用,上述解決方案的任一個均可提供您切換到串列介面的選項。

Sun Cluster 不需要專用的管理主控台,但是使用主控台可提供以下優點:

備份叢集

請定期備份您的叢集。雖然 Sun Cluster 提供了一個在儲存裝置中具有資料鏡像副本的高度可用環境,但請勿以 Sun Cluster 取代定期備份的動作。Sun Cluster 可承受多重故障,但它無法保障因使用者、程式錯誤或災難性故障所造成的資料遺失。因此,您必須有備份程序來防止資料的遺失。

下列資訊必須納入作為備份作業的一部分。

開始管理叢集

表 1–1 提供了管理叢集的起始點。

表 1–1 Sun Cluster 3.2 管理工具

作業 

工具 

操作說明 

從遠端登入叢集 

使用 ccp 指令啟動「叢集控制面板」(CCP)。然後選取下列一種圖示:cconsolecrlogincsshctelnet

如何從遠端登入叢集

如何安全地連線至叢集主控台

以互動方式配置叢集 

啟動 clsetup(1CL) 公用程式。

如何存取 clsetup 公用程式

顯示 Sun Cluster 發行版本編號與版本資訊 

使用 clnode(1CL) 指令和 show-rev --v -node 子指令與選項。

如何顯示 Sun Cluster 版次與版本資訊

顯示已安裝的資源、資源群組與資源類型 

使用下列指令以顯示資源資訊: 

如何顯示已配置的資源類型、資源群組與資源

以圖形方式監視叢集元件 

使用 Sun Cluster Manager。 

請參閱線上說明 

以圖形方式管理某些叢集元件 

使用 或 Sun Management Center 的 Sun Cluster Manager Sun Cluster 模組 (僅可在以 SPARC 為基礎系統上之 Sun Cluster 中使用)。 

關於 Sun Cluster Manager,請參閱線上說明 

關於 Sun Management Center,請參閱 Sun Management Center 文件 

檢查叢集元件的狀況 

使用帶 status 子指令的 cluster(1CL) 指令。

如何檢查叢集元件的狀態

檢查公用網路上 IP 網路多重路徑群組的狀況 

使用帶 -m 選項的 clnode(1CL) status指令。

如何檢查公用網路的狀態

檢視叢集配置 

使用帶 show 子指令的 cluster(1CL) 指令。

如何檢視叢集配置

檢查全域掛載點 

使用 sccheck(1M) 指令。

如何驗證基本叢集配置

查看 Sun Cluster 指令記錄的內容 

檢查 /var/cluster/logs/commandlog 檔。

如何檢視 Sun Cluster 指令記錄的內容

查看 Sun Cluster 系統訊息 

檢查 /var/adm/messages 檔。

「System Administration Guide: Advanced Administration」中的「Viewing System Messages」

監視 Solstice DiskSuite 的狀態 

使用 metastat 指令。

Solaris Volume Manager說明文件 

如果執行 Solaris 9 或 Solaris 10 ,則監視 Solaris Volume Manager 的狀況 

使用 metastat 指令。

「Solaris Volume Manager Administration Guide 」

Procedure如何從遠端登入叢集

叢集控制面板 (CCP) 提供啟動台供 cconsolecrlogincsshctelnet 工具使用。所有工具皆會開啟一個多重視窗連線以連線至一組指定的節點。這個多重視窗連接是由每一個指定節點的主視窗以及一個共通視窗所組成。在共同視窗中輸入便可將輸入指令傳送到每一個主機視窗,讓您能夠同時在所有叢集的節點上執行指令。

您也可以從指令行啟動 cconsolecrlogincsshctelnet 階段作業。

根據預設,cconsole 公用程式使用 telnet 連線至節點主控台。若要改使用 Secure Shell 連線至主控台,請啟用 cconsole 視窗 [選項] 功能表中的 [使用 SSH] 核取方塊。或者,當您發出 ccpcconsole 指令時指定-s 選項。

請參閱 ccp(1M)cconsole(1M) 線上手冊以取得更多資訊。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

開始之前

請在啟動 CCP 之前,確認是否符合以下必備條件:

  1. 如果您有 Sun Enterprise 10000 伺服器 平台,請登入系統服務處理器 (SSP)。

    1. 請使用 netcon 指令來連線。

    2. 建立連線之後,請輸入 Shift~@ 以解除主控台鎖定並取得寫入權。

  2. 請從管理主控台啟動 CCP 啟動台。


    # ccp clustername
    

    出現 CCP 啟動台。

  3. 要啟動叢集的遠端階段作業,請按一下 CCP 啟動台中的 cconsole、crlogin、cssh 或 ctelnet 圖示。

Procedure如何安全地連線至叢集主控台

請執行此程序以建立連線到叢集節點主控台的 Secure Shell 連線。

開始之前

如果您使用終端機集訊機的話,請配置 clusters 檔、serialports 檔及 nsswitch.conf 檔。這些檔案可以是 /etc 檔或 NIS 或 NIS+ 資料庫。


備註 –

serialports 檔案中,請使用可用來與每個主控台存取裝置建立安全連線的連接埠號碼。Secure Shell 連線預設的連接埠號碼為 22。


請參閱 clusters(4)serialports(4) 線上手冊以取得更多資訊。

  1. 成為管理主控台上的超級使用者。

  2. 請在安全模式中啟動 cconsole 公用程式。


    # cconsole -s [-l 使用者名稱] [-p ssh 連接埠]
    
    -s

    啟用安全的 shell 連線。

    -l 使用者名稱

    為遠端連線指定使用者名稱。如果沒有指定 -l 選項, 則會使用啟動 cconsole 公用程式的使用者名稱。

    -p ssh 連接埠

    指定要使用的 Secure Shell 連接埠號碼。如果沒有指定 -p 選項,則會使用預設的連接埠號碼 22 以進行安全連線。

Procedure如何存取 clsetup 公用程式

clsetup(1CL) 公用程式使您可以互動地配置叢集的法定裝置、資源群組、叢集傳輸、私有主機名稱、裝置群組以及新節點選項。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 成為叢集中任何節點的超級使用者。

  2. 啟動 clsetup 公用程式。


    # clsetup
    

    顯示 Main Menu。

  3. 從功能表選擇您的配置。依照螢幕上的指示完成作業。

另請參閱

請參閱 clsetup 線上說明以取得詳細資訊。

Procedure如何顯示 Sun Cluster 修補程式資訊

您無需以超級使用者身份登入便可執行此程序。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 顯示 Sun Cluster 修補程式資訊:


    % showrev -p
    

    Sun Cluster 更新版次是透過主產品修補程式編號及更新版本來作確認。


範例 1–1 顯示 Sun Cluster 修補程式資訊

以下範例顯示了有關修補程式 110648-05 的資訊。


% showrev -p | grep 110648
Patch: 110648-05 Obsoletes:  Requires:  Incompatibles:  Packages: 

Procedure如何顯示 Sun Cluster 版次與版本資訊

您無需以超級使用者身份登入便可執行此程序。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

  1. 顯示 Sun Cluster 發行版本與版本資訊:


    % clnode show-rev -v -
    

    該指令顯示了所有 Sun Cluster 套裝軟體的 Sun Cluster 發行版本編號與版本字串。


範例 1–2 顯示 Sun Cluster 發行版本與版本資訊

以下範例顯示叢集的版次資訊以及所有套件的版本資訊。


% clnode show-rev
3.2

% clnode show-rev -v
Sun Cluster 3.2 for Solaris 9 sparc

SUNWscr:       3.2.0,REV=2006.02.17.18.11
SUNWscu:       3.2.0,REV=2006.02.17.18.11
SUNWsczu:      3.2.0,REV=2006.02.17.18.11
SUNWscsck:     3.2.0,REV=2006.02.17.18.11
SUNWscnm:      3.2.0,REV=2006.02.17.18.11
SUNWscdev:     3.2.0,REV=2006.02.17.18.11
SUNWscgds:     3.2.0,REV=2006.02.17.18.11
SUNWscman:     3.2.0,REV=2005.10.18.08.42
SUNWscsal:     3.2.0,REV=2006.02.17.18.11
SUNWscsam:     3.2.0,REV=2006.02.17.18.11
SUNWscvm:      3.2.0,REV=2006.02.17.18.11
SUNWmdm:       3.2.0,REV=2006.02.17.18.11
SUNWscmasa:    3.2.0,REV=2006.02.17.18.11
SUNWscmautil:  3.2.0,REV=2006.02.17.18.11
SUNWscmautilr: 3.2.0,REV=2006.02.17.18.11
SUNWjfreechart: 3.2.0,REV=2006.02.17.18.11
SUNWscva:      3.2.0,REV=2006.02.17.18.11
SUNWscspm:     3.2.0,REV=2006.02.17.18.11
SUNWscspmu:    3.2.0,REV=2006.02.17.18.11
SUNWscspmr:    3.2.0,REV=2006.02.17.18.11
SUNWscderby:   3.2.0,REV=2006.02.17.18.11
SUNWsctelemetry: 3.2.0,REV=2006.02.17.18.11
SUNWscrsm:     3.2.0,REV=2006.02.17.18.11
SUNWcsc:       3.2.0,REV=2006.02.21.10.16
SUNWcscspm:    3.2.0,REV=2006.02.21.10.16
SUNWcscspmu:   3.2.0,REV=2006.02.21.10.16
SUNWdsc:       3.2.0,REV=2006.02.21.10.09
SUNWdscspm:    3.2.0,REV=2006.02.21.10.09
SUNWdscspmu:   3.2.0,REV=2006.02.21.10.09
SUNWesc:       3.2.0,REV=2006.02.21.10.11
SUNWescspm:    3.2.0,REV=2006.02.21.10.11
SUNWescspmu:   3.2.0,REV=2006.02.21.10.11
SUNWfsc:       3.2.0,REV=2006.02.21.10.06
SUNWfscspm:    3.2.0,REV=2006.02.21.10.06
SUNWfscspmu:   3.2.0,REV=2006.02.21.10.06
SUNWhsc:       3.2.0,REV=2006.02.21.10.20
SUNWhscspm:    3.2.0,REV=2006.02.21.10.20
SUNWhscspmu:   3.2.0,REV=2006.02.21.10.20
SUNWjsc:       3.2.0,REV=2006.02.21.10.22
SUNWjscman:    3.2.0,REV=2006.02.21.10.22
SUNWjscspm:    3.2.0,REV=2006.02.21.10.22
SUNWjscspmu:   3.2.0,REV=2006.02.21.10.22
SUNWksc:       3.2.0,REV=2006.02.21.10.14
SUNWkscspm:    3.2.0,REV=2006.02.21.10.14
SUNWkscspmu:   3.2.0,REV=2006.02.21.10.14

Procedure如何顯示已配置的資源類型、資源群組與資源

您也可使用 Sun Cluster Manager GUI 來完成此程序。請參閱第 12 章, 利用圖形使用者介面管理 Sun Cluster或參閱 Sun Cluster Manager 線上說明以取得更多資訊。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

開始之前

非超級使用者身分的使用者,需要 solaris.cluster.read RBAC 授權才可使用此子指令。

  1. 顯示叢集已配置的資源類型、資源群組與資源。


    % cluster show -t resource,resourcetype,resourcegroup
    

    如需關於個別資源、資源群組以及資源類型的資訊,請搭配下列其中一個指令使用 show 子指令:

    • resource

    • resource group

    • resourcetype


範例 1–3 顯示已配置的資源類型、資源群組與資源

以下範例顯示配置給叢集 schost 的資源類型 (RT Name)、資源群組 (RG Name) 與資源 (RS Name)。


% cluster show resource,resourcetype,resourcegroup


=== Registered Resource Types ===

Resource Type:                                  SUNW.qfs
  RT_description:                                  SAM-QFS Agent on SunCluster
  RT_version:                                      3.1
  API_version:                                     3
  RT_basedir:                                      /opt/SUNWsamfs/sc/bin
  Single_instance:                                 False
  Proxy:                                           False
  Init_nodes:                                      All potential masters
  Installed_nodes:                                 <All>
  Failover:                                        True
  Pkglist:                                         <NULL>
  RT_system:                                       False

=== Resource Groups and Resources ===

Resource Group:                                 qfs-rg
  RG_description:                                  <NULL>
  RG_mode:                                         Failover
  RG_state:                                        Managed
  Failback:                                        False
  Nodelist:                                        phys-schost-2 phys-schost-1

  --- Resources for Group qfs-rg ---

  Resource:                                     qfs-res
    Type:                                          SUNW.qfs
    Type_version:                                  3.1
    Group:                                         qfs-rg
    R_description:                                 
    Resource_project_name:                         default
    Enabled{phys-schost-2}:                        True
    Enabled{phys-schost-1}:                        True
    Monitored{phys-schost-2}:                      True
    Monitored{phys-schost-1}:                      True

Procedure如何檢查叢集元件的狀態

您也可使用 Sun Cluster Manager GUI 來完成此程序。請參閱 Sun Cluster Manager 線上說明,以取得詳細資訊。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

開始之前

非超級使用者身分的使用者,需要 solaris.cluster.read RBAC 授權才可使用 status 子指令。

  1. 檢查叢集元件的狀態。


    % cluster status
    

範例 1–4 檢查叢集元件的狀態

下列範例提供叢集 cluster(1CL) status 傳回的叢集元件的狀況資訊範例。


% cluster status
=== Cluster Nodes ===

--- Node Status ---

Node Name                                       Status
---------                                       ------
phys-schost-1                                   Online
phys-schost-2                                   Online


=== Cluster Transport Paths ===

Endpoint1               Endpoint2               Status
---------               ---------               ------
phys-schost-1:qfe1      phys-schost-4:qfe1      Path online
phys-schost-1:hme1      phys-schost-4:hme1      Path online


=== Cluster Quorum ===

--- Quorum Votes Summary ---

            Needed   Present   Possible
            ------   -------   --------
            3        3         4


--- Quorum Votes by Node ---

Node Name       Present       Possible       Status
---------       -------       --------       ------
phys-schost-1   1             1              Online
phys-schost-2   1             1              Online


--- Quorum Votes by Device ---

Device Name           Present      Possible          Status
-----------               -------      --------      ------
/dev/did/rdsk/d2s2      1            1                Online
/dev/did/rdsk/d8s2      0            1                Offline


=== Cluster Device Groups ===

--- Device Group Status ---

Device Group Name     Primary          Secondary    Status
-----------------     -------          ---------    ------
schost-2              phys-schost-2     -           Degraded


--- Spare, Inactive, and In Transition Nodes ---

Device Group Name   Spare Nodes   Inactive Nodes   In Transistion Nodes
-----------------   -----------   --------------   --------------------
schost-2            -             -                -


=== Cluster Resource Groups ===

Group Name        Node Name      Suspended      Status
----------        ---------      ---------      ------
test-rg           phys-schost-1       No             Offline
                  phys-schost-2       No             Online

test-rg           phys-schost-1       No             Offline
                  phys-schost-2       No             Error--stop failed

test-rg           phys-schost-1       No             Online
                  phys-schost-2       No             Online


=== Cluster Resources ===

Resource Name     Node Name     Status               Message
-------------     ---------     ------               -------
test_1            phys-schost-1      Offline         Offline
                  phys-schost-2      Online          Online

test_1            phys-schost-1      Offline         Offline
                  phys-schost-2      Stop failed     Faulted

test_1            phys-schost-1      Online          Online
                  phys-schost-2      Online          Online


Device Instance             Node                     Status
---------------             ----                     ------
/dev/did/rdsk/d2            phys-schost-1            Ok

/dev/did/rdsk/d3            phys-schost-1            Ok
                            phys-schost-2            Ok

/dev/did/rdsk/d4            phys-schost-1            Ok
                            phys-schost-2            Ok

/dev/did/rdsk/d6            phys-schost-2            Ok 

Procedure如何檢查公用網路的狀態

您也可使用 Sun Cluster Manager GUI 來完成此程序。請參閱 Sun Cluster Manager 線上說明,以取得詳細資訊。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

若要檢查 IP 網路多重路徑群組的狀態,請搭配 status子指令使用 clnode(1CL) 指令。

開始之前

非超級使用者身分的使用者,需要 solaris.cluster.read RBAC 授權才可使用此子指令。

  1. 檢查叢集元件的狀態。


    % clnode status -m
    

範例 1–5 檢查公用網路狀態

以下範例顯示 clnode status 指令傳回的叢集元件的狀態資訊範本。


% clnode status -m
--- Node IPMP Group Status ---

Node Name         Group Name    Status    Adapter    Status
---------         ----------    ------    -------    ------
phys-schost-1     test-rg       Online    qfe1       Online
phys-schost-2     test-rg       Online    qfe1       Online 

Procedure如何檢視叢集配置

您也可使用 Sun Cluster Manager GUI 來完成此程序。請參閱 Sun Cluster Manager 線上說明,以取得詳細資訊。

此程序提供長形式的 Sun Cluster 指令。大多指令也有短的形式。除了指令名稱有長形式和短形式之分外,指令本身是相同的。如需指令及其短形式的清單,請參閱附錄 ASun Cluster 以物件為導向的指令

開始之前

非超級使用者身分的使用者,需要 solaris.cluster.read RBAC 授權才可使用 status 子指令。

  1. 檢視叢集配置


    % cluster show

    若要使用 cluster 指令顯示更多資訊,請使用詳細的選項。請參閱 cluster(1CL) 線上手冊以取得詳細資訊。


範例 1–6 檢視叢集配置

以下範例列出叢集配置。


% cluster show

=== Cluster ===                                

Cluster Name:                                   cluster-1
  installmode:                                     disabled
  heartbeat_timeout:                               10000
  heartbeat_quantum:                               1000
  private_netaddr:                                 172.16.0.0
  private_netmask:                                 255.255.248.0
  max_nodes:                                       64
  max_privatenets:                                 10
  global_fencing:                                  Unknown
  Node List:                                       phys-schost-1
  Node Zones:                                      phys_schost-2:za

  === Host Access Control ===                  

  Cluster name:                                 clustser-1
    Allowed hosts:                                 phys-schost-1, phys-schost-2:za
    Authentication Protocol:                       sys

  === Cluster Nodes ===                        

  Node Name:                                    phys-schost-1
    Node ID:                                       1
    Type:                                          cluster
    Enabled:                                       yes
    privatehostname:                               clusternode1-priv
    reboot_on_path_failure:                        disabled
    globalzoneshares:                              3
    defaultpsetmin:                                1
    quorum_vote:                                   1
    quorum_defaultvote:                            1
    quorum_resv_key:                               0x43CB1E1800000001
    Transport Adapter List:                        qfe3, hme0

    --- Transport Adapters for phys-schost-1 ---    

    Transport Adapter:                          qfe3
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               qfe
      Adapter Property(device_instance):           3
      Adapter Property(lazy_free):                 1
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.1.1
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    Transport Adapter:                          hme0
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               hme
      Adapter Property(device_instance):           0
      Adapter Property(lazy_free):                 0
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.0.129
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    --- SNMP MIB Configuration on phys-schost-1 --- 

    SNMP MIB Name:                              Event
      State:                                       Disabled
      Protocol:                                    SNMPv2

    --- SNMP Host Configuration on phys-schost-1 ---

    --- SNMP User Configuration on phys-schost-1 ---

    SNMP User Name:                             foo
      Authentication Protocol:                     MD5
      Default User:                                No

  Node Name:                                    phys-schost-2:za
    Node ID:                                       2
    Type:                                          cluster
    Enabled:                                       yes
    privatehostname:                               clusternode2-priv
    reboot_on_path_failure:                        disabled
    globalzoneshares:                              1
    defaultpsetmin:                                2
    quorum_vote:                                   1
    quorum_defaultvote:                            1
    quorum_resv_key:                               0x43CB1E1800000002
    Transport Adapter List:                        hme0, qfe3

    --- Transport Adapters for phys-schost-2 ---    

    Transport Adapter:                          hme0
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               hme
      Adapter Property(device_instance):           0
      Adapter Property(lazy_free):                 0
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.0.130
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    Transport Adapter:                          qfe3
      Adapter State:                               Enabled
      Adapter Transport Type:                      dlpi
      Adapter Property(device_name):               qfe
      Adapter Property(device_instance):           3
      Adapter Property(lazy_free):                 1
      Adapter Property(dlpi_heartbeat_timeout):    10000
      Adapter Property(dlpi_heartbeat_quantum):    1000
      Adapter Property(nw_bandwidth):              80
      Adapter Property(bandwidth):                 10
      Adapter Property(ip_address):                172.16.1.2
      Adapter Property(netmask):                   255.255.255.128
      Adapter Port Names:                          0
      Adapter Port State(0):                       Enabled

    --- SNMP MIB Configuration on phys-schost-2 --- 

    SNMP MIB Name:                              Event
      State:                                       Disabled
      Protocol:                                    SNMPv2

    --- SNMP Host Configuration on phys-schost-2 ---

    --- SNMP User Configuration on phys-schost-2 ---

  === Transport Cables ===                     

  Transport Cable:                              phys-schost-1:qfe3,switch2@1
    Cable Endpoint1:                               phys-schost-1:qfe3
    Cable Endpoint2:                               switch2@1
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-1:hme0,switch1@1
    Cable Endpoint1:                               phys-schost-1:hme0
    Cable Endpoint2:                               switch1@1
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-2:hme0,switch1@2
    Cable Endpoint1:                               phys-schost-2:hme0
    Cable Endpoint2:                               switch1@2
    Cable State:                                   Enabled

  Transport Cable:                              phys-schost-2:qfe3,switch2@2
    Cable Endpoint1:                               phys-schost-2:qfe3
    Cable Endpoint2:                               switch2@2
    Cable State:                                   Enabled

  === Transport Switches ===                   

  Transport Switch:                             switch2
    Switch State:                                  Enabled
    Switch Type:                                   switch
    Switch Port Names:                             1 2
    Switch Port State(1):                          Enabled
    Switch Port State(2):                          Enabled

  Transport Switch:                             switch1
    Switch State:                                  Enabled
    Switch Type:                                   switch
    Switch Port Names:                             1 2
    Switch Port State(1):                          Enabled
    Switch Port State(2):                          Enabled


  === Quorum Devices ===                       

  Quorum Device Name:                           d3
    Enabled:                                       yes
    Votes:                                         1
    Global Name:                                   /dev/did/rdsk/d3s2
    Type:                                          scsi
    Access Mode:                                   scsi2
    Hosts (enabled):                               phys-schost-1, phys-schost-2

  Quorum Device Name:                           qs1
    Enabled:                                       yes
    Votes:                                         1
    Global Name:                                   qs1
    Type:                                          quorum_server
    Hosts (enabled):                               phys-schost-1, phys-schost-2
    Quorum Server Host:                            10.11.114.83
    Port:                                          9000


  === Device Groups ===                        

  Device Group Name:                            testdg3
    Type:                                          SVM
    failback:                                      no
    Node List:                                     phys-schost-1, phys-schost-2
    preferenced:                                   yes
    numsecondaries:                                1
    diskset name:                                  testdg3

  === Registered Resource Types ===            

  Resource Type:                                SUNW.LogicalHostname:2
    RT_description:                                Logical Hostname Resource Type
    RT_version:                                    2
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hafoip
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      True
    Pkglist:                                       SUNWscu
    RT_system:                                     True

  Resource Type:                                SUNW.SharedAddress:2
    RT_description:                                HA Shared Address Resource Type
    RT_version:                                    2
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hascip
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    <Unknown>
    Installed_nodes:                              <All>
    Failover:                                      True
    Pkglist:                                       SUNWscu
    RT_system:                                     True

  Resource Type:                                SUNW.HAStoragePlus:4
    RT_description:                                HA Storage Plus
    RT_version:                                    4
    API_version:                                   2
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/hastorageplus
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWscu
    RT_system:                                     False

  Resource Type:                                SUNW.haderby
    RT_description:                                haderby server for Sun Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/haderby
    Single_instance:                               False
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWscderby
    RT_system:                                     False

  Resource Type:                                SUNW.sctelemetry
    RT_description:                                sctelemetry service for Sun Cluster
    RT_version:                                    1
    API_version:                                   7
    RT_basedir:                                    /usr/cluster/lib/rgm/rt/sctelemetry
    Single_instance:                               True
    Proxy:                                         False
    Init_nodes:                                    All potential masters
    Installed_nodes:                               <All>
    Failover:                                      False
    Pkglist:                                       SUNWsctelemetry
    RT_system:                                     False

  === Resource Groups and Resources ===        

  Resource Group:                               HA_RG
    RG_description:                                <Null>
    RG_mode:                                       Failover
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group HA_RG ---          

    Resource:                                   HA_R
      Type:                                        SUNW.HAStoragePlus:4
      Type_version:                                4
      Group:                                       HA_RG
      R_description:                               
      Resource_project_name:                       SCSLM_HA_RG
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  Resource Group:                               cl-db-rg
    RG_description:                                <Null>
    RG_mode:                                       Failover
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group cl-db-rg ---       

    Resource:                                   cl-db-rs
      Type:                                        SUNW.haderby
      Type_version:                                1
      Group:                                       cl-db-rg
      R_description:                               
      Resource_project_name:                       default
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  Resource Group:                               cl-tlmtry-rg
    RG_description:                                <Null>
    RG_mode:                                       Scalable
    RG_state:                                      Managed
    Failback:                                      False
    Nodelist:                                      phys-schost-1 phys-schost-2

    --- Resources for Group cl-tlmtry-rg ---   

    Resource:                                   cl-tlmtry-rs
      Type:                                        SUNW.sctelemetry
      Type_version:                                1
      Group:                                       cl-tlmtry-rg
      R_description:                               
      Resource_project_name:                       default
      Enabled{phys-schost-1}:                      True
      Enabled{phys-schost-2}:                      True
      Monitored{phys-schost-1}:                    True
      Monitored{phys-schost-2}:                    True

  === DID Device Instances ===                 

  DID Device Name:                              /dev/did/rdsk/d1
    Full Device Path:                              phys-schost-1:/dev/rdsk/c0t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d2
    Full Device Path:                              phys-schost-1:/dev/rdsk/c1t0d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d3
    Full Device Path:                              phys-schost-2:/dev/rdsk/c2t1d0
    Full Device Path:                              phys-schost-1:/dev/rdsk/c2t1d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d4
    Full Device Path:                              phys-schost-2:/dev/rdsk/c2t2d0
    Full Device Path:                              phys-schost-1:/dev/rdsk/c2t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d5
    Full Device Path:                              phys-schost-2:/dev/rdsk/c0t2d0
    Replication:                                   none
    default_fencing:                               global

  DID Device Name:                              /dev/did/rdsk/d6
    Full Device Path:                              phys-schost-2:/dev/rdsk/c1t0d0
    Replication:                                   none
    default_fencing:                               global

  === NAS Devices ===                          

  Nas Device:                                   nas_filer1
    Type:                                          netapp
    User ID:                                       root

  Nas Device:                                   nas2
    Type:                                          netapp
    User ID:                                       llai

Procedure如何驗證基本叢集配置

sccheck(1M) 指令會執行一系列檢查,以驗證叢集所需的基本配置是否運作正常。如果所有檢查均順利完成,sccheck 將返回到 shell 提示符號。如果有某個檢查失敗,則 sccheck 將在指定的或預設的輸出目錄中產生報告。如果您對一個以上的節點執行 scchecksccheck 將會產生一個針對各個節點的報告和一個針對多個節點檢查的報告。

sccheck 指令分兩個步驟執行﹕資料收集與分析。依據系統配置的不同,資料收集可能會很費時。您可在詳細模式中搭配 -v1 旗標一起執行 sccheck 以列印進度訊息。或者,特別是在資料收集期間,您可使用 -v2 旗標在高度詳細模式中執行 sccheck,其可列印更詳細的進度訊息。


備註 –

請於執行完某個可能導致裝置、磁碟區管理元件或 Sun Cluster 配置變更的管理程序之後,執行 sccheck


  1. 成為叢集中任何節點的超級使用者。


    % su
    
  2. 確認叢集配置。


     # sccheck
    

範例 1–7 檢查叢集配置時所有檢查全部通過

以下範例顯示針對節點 phys-schost-1phys-schost-2 在詳細模式中執行的 sccheck,且所有檢查全部通過。


# sccheck -v1 -h phys-schost-1,phys-schost-2

sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished
# 


範例 1–8 檢查叢集配置時有一個檢查未通過

以下範例顯示缺少掛載點 /global/phys-schost-1 的叢集 suncluster 中的節點 phys-schost-2。報告建立在輸出目錄 /var/cluster/sccheck/myReports/ 中。


# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports

sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished.
sccheck: One or more checks failed.
sccheck: The greatest severity of all check failures was 3 (HIGH).
sccheck: Reports are in /var/cluster/sccheck/myReports.
# 
# cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Sun Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
 #

Procedure如何檢查全域裝載點

sccheck(1M) 指令將會檢查 /etc/vfstab 檔案以驗證叢集檔案系統及其全域掛載點是否存在配置錯誤。


備註 –

請在進行影響裝置或磁碟區管理元件的叢集配置變更之後,執行 sccheck


  1. 成為叢集中任何節點的超級使用者。


    % su
    
  2. 確認叢集配置。


     # sccheck
    

範例 1–9 檢查全域掛載點

以下範例顯示缺少掛載點 /global/schost-1 的叢集 suncluster 之節點 phys-schost-2。報告已傳送至輸出目錄 /var/cluster/sccheck/myReports/


# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports

sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished.
sccheck: One or more checks failed.
sccheck: The greatest severity of all check failures was 3 (HIGH).
sccheck: Reports are in /var/cluster/sccheck/myReports.
# 
# cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Sun Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
#
# cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 1398
SEVERITY : HIGH
FAILURE  : An unsupported server is being used as a Sun Cluster 3.x node.
ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node.  
Only servers that have been qualified with Sun Cluster 3.x are supported as 
Sun Cluster 3.x nodes.
RECOMMEND: Because the list of supported servers is always being updated, check with 
your Sun Microsystems representative to get the latest information on what servers 
are currently supported and only use a server that is supported with Sun Cluster 3.x.
...
#

Procedure如何檢視 Sun Cluster 指令記錄的內容

/var/cluster/logs/commandlog ASCII 文字檔案包含執行於叢集中所選取的 Sun Cluster 指令的記錄。當您設定叢集時,會自動開始記錄指令,而當您關閉叢集時,則會結束記錄。指令會記錄至所有在叢集模式中開啟與啟動的節點。

未記錄到此檔案的的指令包括顯示叢集配置與目前狀態的指令。

記錄在此檔案中的指令包括配置與變更叢集目前狀態的指令:

commandlog 檔案中的記錄可包含下列元素:

根據預設,commandlog 檔案會定期歸檔,且一週一次。若要變更 commandlog 檔案的歸檔策略,請在叢集中的每個節點上使用 crontab 指令。請參閱 crontab(1) 線上手冊以取得更多資訊。

Sun Cluster 可於任何時間在各個叢集節點上最多維護 8 個先前已歸檔的 commandlog 檔案。目前這週的 commandlog 檔案命名為 commandlog。最新完成的週檔案命名為 commandlog.0 。最舊完成的週檔案被命名為 commandlog.7

    檢視目前這週的 commandlog 檔案內容,一次一個畫面。


    # more /var/cluster/logs/commandlog
    

範例 1–10 檢視 Sun Cluster 指令記錄的內容

下列範例顯示 more 指令所顯示的 commandlog 內容。


more -lines10 /var/cluster/logs/commandlog
11/11/2006 09:42:51 phys-schost-1 5222 root START - clsetup
11/11/2006 09:43:36 phys-schost-1 5758 root START - clrg add "app-sa-1"
11/11/2006 09:43:36 phys-schost-1 5758 root END 0
11/11/2006 09:43:36 phys-schost-1 5760 root START - clrg set -y
"RG_description=Department Shared Address RG" "app-sa-1"
11/11/2006 09:43:37 phys-schost-1 5760 root END 0
11/11/2006 09:44:15 phys-schost-1 5810 root START - clrg online "app-sa-1"
11/11/2006 09:44:15 phys-schost-1 5810 root END 0
11/11/2006 09:44:19 phys-schost-1 5222 root END -20988320
12/02/2006 14:37:21 phys-schost-1 5542 jbloggs START - clrg -c -g "app-sa-1"
-y "RG_description=Joe Bloggs Shared Address RG"
12/02/2006 14:37:22 phys-schost-1 5542 jbloggs END 0