Sun Cluster 系統管理指南 (適用於 Solaris 作業系統)

第 1章 管理 Sun Cluster 的簡介

本章提供如何準備管理叢集以及使用 Sun Cluster 管理工具的程序相關資訊。

管理 Sun Cluster 概觀

Sun Cluster 為高度可用的環境,可確保一般使用者可以使用重要的應用程式。 系統管理員的工作是保證 Sun Cluster 穩定與正常運作。

在著手管理作業前,請先熟悉Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)Sun Cluster 概念指南 (適用於 Solaris 作業系統)中的規劃資訊。 Sun Cluster 管理分成數項作業,於下列手冊中分別敘述:

在大部分情況下,您可以一面執行 Sun Cluster 管理作業,同時使叢集仍然維持運作的狀態,並且影響只限於一個節點。 對於需要關閉整個叢集才能執行的程序,請將關機時間排定在下班後,以使對系統造成的影響降至最小。 如果您計劃關閉叢集或叢集節點,請先通知使用者。

管理工具

您可以在 Sun Cluster 中使用圖形使用者介面 (Graphical User Interface,GUI) 或指令行來執行管理作業。 下節提供 GUI 及指令行工具的概觀。

圖形使用者介面

Sun Cluster 支援圖形化使用者介面 (GUI) 工具,您可以使用這些工具對叢集執行各種管理作業。 這些 GUI 工具為 SunPlexTM Manager 與 Sun Management Center (如果您在以 SPARC 為基礎的系統上使用 Sun Cluster)。 請參閱第 10章, 使用圖形化使用者介面管理 Sun Cluster,以取得有關 SunPlex Manager 和 Sun Management Center 的詳細資訊及其配置程序的說明。 關於如何使用這些工具的具體資訊,請參閱各個 GUI 的線上說明。

指令行介面

您可以透過 scsetup(1M) 公用程式,以互動方式執行大部分的 Sun Cluster 管理作業。 只要可行,本指南中的管理程序會使用 scsetup 來敘述。

您可以透過 scsetup 公用程式來管理以下的 Main Menu 項目。

您可以透過 scsetup 公用程式來管理以下的 Resource Group Menu 項目。

表 1-1 列出您用來管理 Sun Cluster 的其他指令。 請參閱線上援助頁,以取得詳細資訊。

表 1–1 Sun Cluster 指令行介面指令

指令  

說明 

ccp(1M)

啟動叢集的遠端主控台存取。 

if_mpadm(1M)

用來在「IP 網路多重路徑」(IP Network Multipathing) 群組中,將 IP 位址從一張配接卡切換到另一張。 

sccheck(1M)

檢查並驗證 Sun Cluster 配置,以確保叢集的最基本配置是可行的。  

scconf(1M)

更新 Sun Cluster 配置。 -p 選項可列出叢集配置資訊。

scdidadm(1M)

提供裝置 ID 配置的管理存取權。 

scgdevs(1M)

執行整體裝置名稱空間管理程序檔。 

scinstall(1M)

安裝與配置 Sun Cluster 軟體。 指令可以互動或非互動方式執行。 -p 選項可顯示 Sun Cluster 軟體的版次與套件版本資訊。

scrgadm(1M)

管理資源類型的註冊、資源群組的建立,以及資源群組內資源的啟動。 -p 選項可顯示安裝的資源、資源群組以及資源類型的資訊。


註解 –

當執行 scrgadm 時,資源類型、資源群組及資源屬性名稱不需區分大小寫。


scsetup(1M)

執行可產生 scconf 指令及其各類選項的互動式叢集配置公用程式。

scshutdown(1M)

關閉整個叢集。 

scstat(1M)

提供叢集狀態的快照。  

scswitch(1M)

執行影響到資源群組與磁碟裝置群組的節點主檔與狀態的變更。 

另外,也可以使用指令來管理 Sun Cluster 的容體管理程式部分。 這些指令是根據叢集中所使用的特定容體管理程式決定,可能是 Solstice DiskSuiteTM、VERITAS Volume Manager 或 Solaris Volume ManagerTM

準備管理叢集

本節說明如何開始準備管理叢集。

製作 Sun Cluster 硬體配置的文件

在您的 Sun Cluster 配置延伸時,記錄您的網站特有的硬體層面。 當您變更或升級叢集以節省管理人力時,請參考您的硬體說明文件。 將連接各種不同叢集元件的電纜和連線做標記,也可使管理更為簡易。

藉由保留您的原始叢集配置及後續變更的記錄,減少協力廠商服務提供者為您的叢集提供服務時所需的時間。

使用管理主控台

您可以使用稱為管理主控台的專用 SPARC 工作站來管理使用中的叢集。 通常,您是在管理主控台上安裝與執行「叢集控制面板」(CCP) 與圖形使用者介面 (GUI) 工具。 有關 CCP 的詳細資訊,請參閱如何從遠端登入 Sun Cluster。 如需有關安裝 Sun Management Center 與 SunPlex Manager GUI 工具之叢集控制面板模組的說明,請參閱Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)

管理主控台並非叢集節點。 管理主控台是用來以遠端方式存取叢集節點,透過公用網路或以網路為基礎的終端機集線器。

如果您的 SPARC 叢集是由 Sun Enterprise TM 10000 伺服器所組成,您必須從管理主控台登入「系統服務處理器 (SSP)」。 使用 netcon(1M) 指令進行連接。 netcon 連接 Sun Enterprise 10000 網域的預設方法是透過網路介面。 如果無法存取網路,您可透過設定 -f 選項,在「專用」模式中使用 netcon。 您也可以在正常的 netcon 階段作業中傳送 ~*。 如果網路無法使用,上述解決方案的任一個均可提供您切換到串列介面的選項。

Sun Cluster 不需要專用的管理主控台,但是使用主控台可提供以下優點:

備份叢集

定期備份叢集。 雖然 Sun Cluster 提供了一個在儲存裝置中含有備份資料的 HA 環境,但請勿以 Sun Cluster 取代定期備份的動作。 Sun Cluster 可承受多重故障,但它無法保障因使用者、程式錯誤或災難性故障所造成的資料遺失。 因此,您必須有備份程序來防止資料的遺失。

下列資訊必須納入作為備份作業的一部分。

開始管理叢集

表 1–2 提供了管理叢集的起點。

表 1–2 Sun Cluster 3.1 4/04 管理工具

作業  

工具 

說明文件  

從遠端登入叢集 

使用 ccp 指令啟動「叢集控制面板」(CCP)。 然後選取下列一種圖示: cconsole(1M)crlogin(1M)ctelnet(1M)

如何從遠端登入 Sun Cluster

以互動方式配置叢集 

啟動 scsetup( 1M) 公用程式。

如何存取 scsetup 公用程式

顯示 Sun Cluster 版次編號與版本資訊 

搭配 -p-pv 選項使用 scinstall (1M) 指令。

如何顯示 Sun Cluster 版次與版本資訊

顯示已安裝的資源、資源群組與資源類型 


註解 –

當執行 scrgadm 時,資源類型、資源群組及資源屬性名稱不需區分大小寫。


使用 scrgadm(1M) -p 指令。

如何顯示已配置的資源類型、資源群組與資源

以圖形方式監視叢集元件 

使用 SunPlex Manager 或 Sun Management Center 的 Sun Cluster 模組 (僅在基於 SPARC 的系統上之 Sun Cluster 中可用)。 

Sun Management Center 線上說明的 SunPlex Manager 或 Sun Cluster 模組  

以圖形方式管理某些叢集元件 

使用 SunPlex Manager 或 Sun Management Center 的 Sun Cluster 模組 (僅在基於 SPARC 的系統上之 Sun Cluster 中可用)。 

Sun Management Center 線上說明的 SunPlex Manager 或 Sun Cluster 模組  

檢查叢集元件的狀態 

使用 scstat( 1M) 指令。

如何檢查叢集元件的狀態

檢查公用網路上「IP 網路多重路徑群組」(IP Network Multipathing Group) 的狀態 

搭配 -i 選項使用 scstat( 1M) 指令。

如何檢查公用網路的狀態

檢視叢集配置 

使用 scconf( 1M) -p 指令。

如何檢視叢集配置

檢查整體裝載點 

使用 sccheck( 1M) 指令。

如何驗證基本叢集配置

查看 Sun Cluster 系統訊息 

檢查 /var/adm/messages 檔。

System Administration Guide: Advanced Administration中的 Solaris 9 System Administrator Collection“Viewing System Messages”

監視 Solstice DiskSuite 的狀態 

使用 metastat 指令。

Solstice DiskSuite/Solaris Volume Manager說明文件 

如果執行 Solaris 8 的話,則監視 VERITAS Volume Manager 的狀態。 

使用 vxstatvxva 指令。

VERITAS Volume Manager說明文件 

如果執行 Solaris 9 的話,則監視 Solaris 容體管理程式的狀態。  

使用 svmstat 指令

Solaris Volume Manager Administration Guide

如何從遠端登入 Sun Cluster

叢集控制面板 (CCP) 提供了一個 cconsole(1M)crlogin(1M) 以及 ctelnet(1M) 工具所需要的啟動台。 這三種工具都會開啟連到一組指定節點的視窗。 這個多重視窗連接是由每一個指定節點的主視窗以及一個共通視窗所組成。 在共通視窗中輸入便可將指令輸入傳到每一個主視窗,讓您能夠同時在所有叢集節點上執行指令。 請參閱 ccp( 1M)cconsole( 1M) 線上援助頁,以取得詳細資訊。

  1. 請在開始執行 CCP 之前,確認是否符合以下必備條件。

    • 在管理主控台上安裝 SUNWccon 套件。

    • 確定管理主控台上的 PATH 變數包含 Sun Cluster 工具目錄,即 /opt/SUNWcluster/bin/usr/cluster/bin。 您可藉由設定 $CLUSTER_HOME 環境變數來改變工具目錄位置。

    • 如果您使用終端機集線器的話,請配置 clusters 檔、serialports 檔及 nsswitch.conf 檔。 這些檔案可以是 /etc 檔或 NIS/NIS+ 資料庫。 請參閱 clusters( 4)serialports( 4),以取得詳細資訊。

  2. 判斷是否有 Sun Enterprise 10000 server平台。

    • 如果有,請使用 netcon 指令來登入並連上「系統服務處理器」(SSP)。 建立連線之後,請輸入 Shift~@ 以解除主控台鎖定並取得寫入權。

  3. 啟動 CCP 啟動台。

    請從管理主控台,輸入下列指令。


    # ccp clustername
    

    出現 CCP 啟動台。

  4. 要啟動叢集的遠端階段作業,請按一下 CCP 啟動台中的 cconsole、crlogin 或 ctelnet 圖示。

下一步

您也可以從指令行啟動 cconsolecrloginctelnet 階段作業。

如何存取 scsetup 公用程式

scsetup(1M) 公用程式可讓您以互動方式配置法定數目、資源群組、叢集傳輸、專用主機名稱、裝置群組,以及叢集的新增節點選項。

  1. 成為叢集中任何節點的超級使用者。

  2. 輸入 scsetup 公用程式。


    # scsetup
    

    顯示 Main Menu。

  3. 從功能表選取配置。 依照螢幕上的指示完成作業。

    請參閱 scsetup 線上說明,以取得詳細資訊。

如何顯示 Sun Cluster 版次與版本資訊

您不必登入成超級使用者即可執行這些程序。

    顯示 Sun Cluster 修補程式編號。

    Sun Cluster 更新版次是透過主產品修補程式編號及更新版本來作確認。


    % showrev -p
    

    顯示所有 Sun Cluster 套件的 Sun Cluster 版次編號以及版本文字。


    % scinstall -pv
    

範例—顯示 Sun Cluster 版次編號

以下範例顯示叢集的版次編號。


% showrev -p | grep 110648
Patch: 110648-05 Obsoletes:  Requires:  Incompatibles:  Packages: 

範例—顯示 Sun Cluster 版次與版本資訊

以下範例顯示叢集的版次資訊以及所有套件的版本資訊。


% scinstall -pv
SunCluster 3.1
SUNWscr:       3.1.0,REV=2000.10.01.01.00
SUNWscdev:     3.1.0,REV=2000.10.01.01.00
SUNWscu:       3.1.0,REV=2000.10.01.01.00
SUNWscman:     3.1.0,REV=2000.10.01.01.00
SUNWscsal:     3.1.0,REV=2000.10.01.01.00
SUNWscsam:     3.1.0,REV=2000.10.01.01.00
SUNWscvm:      3.1.0,REV=2000.10.01.01.00
SUNWmdm:       4.2.1,REV=2000.08.08.10.01

如何顯示已配置的資源類型、資源群組與資源

您也可使用 SunPlex Manager GUI 來完成此程序。 請參考第 10章, 使用圖形化使用者介面管理 Sun Cluster。 請參閱 SunPlex Manager 線上說明,以取得詳細資訊。

您不必登入成超級使用者即可執行此程序。

    顯示叢集已配置的資源類型、資源群組與資源。


    % scrgadm -p
    

範例—顯示已配置的資源類型、資源群組與資源

以下範例顯示配置給叢集 schost 的資源類型 (RT Name)、資源群組 (RG Name) 與資源 (RS Name)。


% scrgadm -p
RT Name: SUNW.SharedAddress
  RT Description: HA Shared Address Resource Type 
RT Name: SUNW.LogicalHostname
  RT Description: Logical Hostname Resource Type 
RG Name: schost-sa-1 
  RG Description:  
    RS Name: schost-1
      RS Description: 
      RS Type: SUNW.SharedAddress
      RS Resource Group: schost-sa-1
RG Name: schost-lh-1 
  RG Description:  
    RS Name: schost-3
      RS Description: 
      RS Type: SUNW.LogicalHostname
      RS Resource Group: schost-lh-1

如何檢查叢集元件的狀態

您也可使用 SunPlex Manager GUI 來完成此程序。 請參閱 SunPlex Manager 線上說明,以取得詳細資訊。

您不必登入成超級使用者即可執行此程序。

    檢查叢集元件的狀態。


    % scstat -p
    

範例—檢查叢集元件的狀態

以下範例顯示 scstat( 1M) 傳回的叢集元件狀態資訊。


% scstat -p
-- Cluster Nodes --
 
                    Node name           Status
                    ---------           ------
  Cluster node:     phys-schost-1      Online
  Cluster node:     phys-schost-2      Online
  Cluster node:     phys-schost-3      Online
  Cluster node:     phys-schost-4      Online
 
------------------------------------------------------------------
 
-- Cluster Transport Paths --
 
                    Endpoint            Endpoint            Status
                    --------            --------            ------
  Transport path:   phys-schost-1:qfe1 phys-schost-4:qfe1 Path online
  Transport path:   phys-schost-1:hme1 phys-schost-4:hme1 Path online
...
 
------------------------------------------------------------------
 
-- Quorum Summary --
 
  Quorum votes possible:      6
  Quorum votes needed:        4
  Quorum votes present:       6
 
-- Quorum Votes by Node --
 
                    Node Name           Present Possible Status
                    ---------           ------- -------- ------
  Node votes:       phys-schost-1      1        1       Online
  Node votes:       phys-schost-2      1        1       Online
...
 
-- Quorum Votes by Device --
 
                    Device Name         Present Possible Status 
                    -----------         ------- -------- ------ 
  Device votes:     /dev/did/rdsk/d2s2  1        1       Online 
  Device votes:     /dev/did/rdsk/d8s2  1        1       Online 
...
 
-- Device Group Servers --
 
                         Device Group        Primary             Secondary
                         ------------        -------             ---------
  Device group servers:  rmt/1               -                   -
  Device group servers:  rmt/2               -                   -
  Device group servers:  schost-1           phys-schost-2      phys-schost-1
  Device group servers:  schost-3           -                   -
 
-- Device Group Status --
 
                              Device Group        Status              
                              ------------        ------              
  Device group status:        rmt/1               Offline
  Device group status:        rmt/2               Offline
  Device group status:        schost-1            Online
  Device group status:        schost-3            Offline
 
------------------------------------------------------------------
 
-- Resource Groups and Resources --
 
            Group Name          Resources
            ----------          ---------
 Resources: test-rg             test_1
 Resources: real-property-rg    -
 Resources: failover-rg         -
 Resources: descript-rg-1       -
...
 
-- Resource Groups --
 
            Group Name          Node Name           State
            ----------          ---------           -----
     Group: test-rg             phys-schost-1      Offline
     Group: test-rg             phys-schost-2      Offline
...
 
-- Resources --
 
            Resource Name       Node Name           State     Status Message
            -------------       ---------           -----     --------------
  Resource: test_1              phys-schost-1      Offline   Offline
  Resource: test_1              phys-schost-2      Offline   Offline
 
-----------------------------------------------------------------
 
-- IPMP Groups --
 
              Node Name         Group   	 Status         Adapter   Status
              ---------         -----   	 ------         -------   ------
  IPMP Group: phys-schost-1     sc_ipmp0   Online         qfe1      Online

  IPMP Group: phys-schost-2     sc_ipmp0   Online         qfe1      Online

------------------------------------------------------------------
 

如何檢查公用網路的狀態

您也可使用 SunPlex Manager GUI 來完成此程序。 請參閱 SunPlex Manager 線上說明,以取得詳細資訊。

您不必登入成超級使用者即可執行此程序。

若要檢查「IP 網路多重路徑」(IP Network Multipathing) 群組的狀態,請使用 scstat(1M) 指令。

  1. 檢查叢集元件的狀態。


    % scstat -i
    

範例—檢查公用網路狀態

以下範例顯示 scstat -i 傳回的叢集元件的狀態資訊。


% scstat -i
-----------------------------------------------------------------
 
-- IPMP Groups --
 
              Node Name         Group   	 Status         Adapter   Status
              ---------         -----   	 ------         -------   ------
  IPMP Group: phys-schost-1     sc_ipmp1 	 Online         qfe2      Online

  IPMP Group: phys-schost-1     sc_ipmp0 	 Online         qfe1      Online

  IPMP Group: phys-schost-2     sc_ipmp1 	 Online         qfe2      Online

  IPMP Group: phys-schost-2     sc_ipmp0 	 Online         qfe1      Online

------------------------------------------------------------------
 

如何檢視叢集配置

您也可使用 SunPlex Manager GUI 來完成此程序。 請參閱 SunPlex Manager 線上說明,以取得詳細資訊。

您不必登入成超級使用者即可執行此程序。

    檢視叢集配置


    % scconf -p
    

    若要顯示使用 scconf 指令的詳細資訊,請使用 冗長選項。 請參閱 scconf( 1M) 線上援助頁,以取得詳細資訊。

範例—檢視叢集配置

以下範例列出叢集配置。


% scconf -p
Cluster name:                       cluster-1
Cluster ID:                         0x3908EE1C
Cluster install mode:               disabled
Cluster private net:                172.16.0.0
Cluster private netmask:            255.255.0.0
Cluster new node authentication:    unix
Cluster new node list:              <NULL - Allow any node>
Cluster nodes:                      phys-schost-1 phys-schost-2 phys-schost-3
phys-schost-4
Cluster node name:                                 phys-schost-1
  Node ID:                                         1
  Node enabled:                                    yes
  Node private hostname:                           clusternode1-priv
  Node quorum vote count:                          1
  Node reservation key:                            0x3908EE1C00000001
  Node transport adapters:                         hme1 qfe1 qfe2
 
Node transport adapter:                          hme1
    Adapter enabled:                               yes
    Adapter transport type:                        dlpi
    Adapter property:                              device_name=hme
    Adapter property:                              device_instance=1
    Adapter property:                              dlpi_heartbeat_timeout=10000
...
Cluster transport junctions:                       hub0 hub1 hub2
 
Cluster transport junction:                        hub0
  Junction enabled:                                yes
  Junction type:                                   switch
  Junction port names:                             1 2 3 4
...
Junction port:                                   1
    Port enabled:                                  yes
 
Junction port:                                   2
    Port enabled:                                  yes
...
Cluster transport cables
                    Endpoint            Endpoint        State
                    --------            --------        -----
  Transport cable:  phys-schost-1:hme1@0 hub0@1        Enabled
  Transport cable:  phys-schost-1:qfe1@0 hub1@1        Enabled
  Transport cable:  phys-schost-1:qfe2@0 hub2@1        Enabled
  Transport cable:  phys-schost-2:hme1@0 hub0@2        Enabled
...
Quorum devices:                                    d2 d8
 
Quorum device name:                                d2
  Quorum device votes:                             1
  Quorum device enabled:                           yes
  Quorum device name:                              /dev/did/rdsk/d2s2
  Quorum device hosts (enabled):                   phys-schost-1
 phys-schost-2
  Quorum device hosts (disabled): 
...
Device group name:                                 schost-3
  Device group type:                               SVM
  Device group failback enabled:                   no
  Device group node list:                          phys-schost-3, phys-schost-4
  Diskset name:                                    schost-3

如何驗證基本叢集配置

sccheck(1M) 指令執行一系列檢查,以驗證叢集正確執行所需的基本配置。 如果所有檢查均順利完成,sccheck 將返回到 shell 提示符號。 如果有某個檢查失敗,則 sccheck 將在指定的或預設的輸出目錄中產生報告。 如果您對一個以上的節點執行 scchecksccheck 將會產生一個針對各個節點的報告和一個針對多個節點檢查的報告。

sccheck 指令分兩個步驟執行﹕ 資料收集與分析。 依據系統配置的不同,資料收集可能會很費時。 您可以使用 -v1 旗標在冗長模式中呼叫 sccheck 來列印進度訊息,或者您可以使用 -v2 旗標在特別冗長的模式中執行 sccheck,在此模式下,可以列印更詳細的進度訊息,尤其是在資料收集期間。


註解 –

請於執行完某個可能導致裝置、容體管理元件或 Sun Cluster 配置變更的管理程序之後,執行 sccheck


  1. 成為叢集中任何節點的超級使用者。


    % su
    
  2. 確認叢集配置。


     # sccheck
    

範例—檢查叢集配置時所有檢查全部通過

以下範例說明了針對節點 phys-schost-1phys-schost-2 在冗長模式中執行的 sccheck,且所有檢查全部通過。


# sccheck -v1 -h phys-schost-1,phys-schost-2
sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished
# 

範例—檢查叢集配置時一個檢查未通過

以下範例說明了叢集 suncluster 中的節點 phys-schost-2 遺漏了裝載點 /global/phys-schost-1。 報告建立在輸出目錄 /var/cluster/sccheck/myReports/ 中。


# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports
sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished.
sccheck: One or more checks failed.
sccheck: The greatest severity of all check failures was 3 (HIGH).
sccheck: Reports are in /var/cluster/sccheck/myReports.
# 
# cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Sun Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
 #

如何檢查整體裝載點

sccheck(1M) 指令包含使用叢集檔案系統及其整體裝載點檢查 /etc/vfstab 檔案配置錯誤的檢查。


註解 –

請在進行影響裝置或容體管理元件的叢集配置變更之後,執行 sccheck


  1. 成為叢集中任何節點的超級使用者。


    % su
    
  2. 確認叢集配置。


     # sccheck
    

範例—檢查整體裝載點

以下範例說明了遺漏了裝載點 /global/schost-1 的叢集 suncluster 中的節點 phys-schost-2。 正在將報告傳送至輸出目錄 /var/cluster/sccheck/myReports/


# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports
sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished.
sccheck: One or more checks failed.
sccheck: The greatest severity of all check failures was 3 (HIGH).
sccheck: Reports are in /var/cluster/sccheck/myReports.
# 
# cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Sun Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
#
# cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 1398
SEVERITY : HIGH
FAILURE  : An unsupported server is being used as a Sun Cluster 3.x node.
ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node.  
Only servers that have been qualified with Sun Cluster 3.x are supported as 
Sun Cluster 3.x nodes.
RECOMMEND: Because the list of supported servers is always being updated, check with 
your Sun Microsystems representative to get the latest information on what servers 
are currently supported and only use a server that is supported with Sun Cluster 3.x.
...
#