Sun Cluster 3.0 安裝手冊

配置叢集

下表列出配置叢集需要執行的作業。

表 2-2 工作對應:配置叢集

工作 

參閱說明,請至 ... 

執行後置安裝設定 

"如何執行後置安裝設定"

配置 Solstice DiskSuite 或 VERITAS 容體管理者 容體管理者和裝置群組。 

"如何配置容體管理者軟體",以及容體管理者文件

建立和裝設叢集檔案系統。 

"如何新增叢集檔案系統"

(可選用) 配置額外的公用網路配接卡。

"如何配置額外的公用網路配接卡"

配置「公用網路管理 (PNM)」和設定 NAFO 群組。 

"如何配置公用網路管理 (PNM)"

(可選用) 變更節點的私有主機名稱。

"如何變更私有主機名稱"

編輯 /etc/inet/ntp.conf 檔案,更新節點名稱登錄。

"如何更新網絡時間協定 (NTP)"

(可選用)在 Sun Cluster 軟體安裝 Sun Management Center 模組。

"Sun Cluster 監視的 Sun Management Center 軟體安裝需求" 和 Sun Management Center 文件

安裝協力廠商應用程式以及配置應用程式、資料服務和資源群組。 

Sun Cluster 3.0 Data Services Installation and Configuration Guide,以及協力廠商應用程式文件

如何執行後置安裝設定

在叢集完全形成之後,只能執行一次此程序。

  1. 確認所有的節點均已加入叢集。

    1. 從某一個節點上顯示叢集節點的列表,確認所有的節點均已加入叢集。

      您不需要登入為高階使用者即可執行此指令。


      % scstat -n
      

      輸出類似下列。


      -- Cluster Nodes --
                         Node name      Status
                         ---------      ------
        Cluster node:    phys-schost-1  Online
        Cluster node:    phys-schost-2  Online
    2. 在每一個節點上顯示系統檢查的所有裝置列表,確認與叢集節點的連接性。

      您不需要登入為高階使用者即可執行此指令。


      % scdidadm -L
      

      每一個節點上的列表應該是相同的。輸出類似下列。


      1       phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1
      2       phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      2       phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2
      3       phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      3       phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3
      ...
    3. scdidadm 輸出中,找出您要配置為法定裝置之每個共用磁碟的全域裝置 ID (DID) 名稱。

      例如,在上述子步驟中的輸出顯示全域裝置 d2 ,由 phys-schost-1phys-schost-2 共用。您在 步驟 4 中會需要這項資訊。請參照 "法定裝置" 以取得關於規劃法定裝置的進一步資訊。

  2. 成為叢集中某個節點的高階使用者。

  3. 啟動 scsetup(1M) 公用程式。


    # scsetup
    

    出現「Initial Cluster Setup」畫面。


    註解 -

    如果是顯示 Main Menu,表示此程序已經成功地執行過了。


  4. 回應各項提示。

    1. 在提示 Do you want to add any quorum disks? 時, 如果您的叢集是兩個節點的叢集,請至少配置一個共用法定裝置。

      兩個節點的叢集會一直維持安裝模式,直到配置了共用法定裝置為止。 當 scsetup 公用程式配置了法定裝置之後,會顯示 Command completed successfully 訊息。 如果您的叢集有三個以上的節點,配置法定裝置是選用性的。

    2. 在提示 Is it okay to reset "installmode"? 時,請回答 Yes

      scsetup 公用程式設定叢集的法定配置和票數之後,會顯示 Cluster initialization is complete 訊息並返回 Main Menu。


    註解 -

    如果法定者設定程序被中斷或無法順利完成,請重新執行 步驟 3步驟 4


  5. 在任意節點上,確認已取消了叢集安裝模式。


    # scconf -p | grep 'Cluster install mode:'
    Cluster install mode:                                  disabled

下一步

若要配置容體管理者軟體,請至 "如何配置容體管理者軟體"

如何配置容體管理者軟體

  1. 取得下列資訊。

    • 儲存磁碟機的對應

    • Sun Cluster 3.0 版注意事項中,已完成下列配置規劃表。

      • "區域檔案系統規劃表"

      • "磁碟裝置群組配置表"

      • "容體管理者配置表"

      • "Metadevices 表 (Solstice DiskSuite)"

      請參閱 第 1章, 規劃 Sun Cluster 配置 以取得規劃準則。

  2. 遵循容體管理者的適當配置程序。

    容體管理者 

    文件 

    Solstice DiskSuite 

    附錄 A, 配置 Solstice DiskSuite 軟體

    Solstice DiskSuite 文件 

    VERITAS 容體管理者 

    附錄 B, 配置 VERITAS 容體管理者

    VERITAS 容體管理者 文件 

下一步

配置容體管理者之後,若要建立叢集檔案系統,請至 "如何新增叢集檔案系統"

如何新增叢集檔案系統

在每個新增的個叢集檔案系統執行此工作。


小心 - 小心 -

建立檔案系統會銷毀磁碟上的所有資料。請確定您指定了正確的磁碟裝置名稱。如果指定 的裝置名稱錯誤,在新的檔案系統建立時會刪除其內容。


  1. 成為叢集中所有節點的高階使用者。


    提示 -

    為了較快建立檔案系統,對於您要建立檔案系統之全域裝置目前的主要節點,將您自己設定為 高階使用者。


  2. 使用 newfs(1M) 指令建立檔案系統。


    # newfs raw-disk-device
    

    下表顯示 raw-disk-device 引數的名稱範例。請注意,命名慣例對每一個容體管理者並不相同。

    表 2-3 原始磁碟裝置名稱範例

    容體管理者 

    磁碟裝置名稱範例 

    說明 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    oracle 磁碟組內的原始磁碟裝置 d1

    VERITAS 容體管理者 

    /dev/vx/rdsk/oradg/vol01

    oradg 磁碟群組內的原始磁碟裝置 vol01

    無  

    /dev/global/rdsk/d1s3

    原始磁碟裝置 d1s3

  3. 在叢集的每一個節點上建立叢集檔案系統的裝載點目錄。

    每一個節點上均需要有裝載點,即使該節點不會存取叢集檔案系統。


    # mkdir -p /global/device-group/mount-point
    
    device-group

    與包含裝置的裝置群組名稱相同的目錄名稱

    mount-point

    裝載叢集檔案系統的目錄名稱


    提示 -

    為了簡化管理,請於 /global/ddevice-group 目錄,建立裝載點。這個位置可讓您容易區分叢集檔案系統是全域可用或區域檔案系統。


  4. 在叢集的每一個節點上,於 /etc/vfstab 檔案中新增裝載點的登錄。


    註解 -

    syncdir 裝載選項對於叢集檔案系統而言,並非必要。如果您指定 syncdir,您可以獲得保證的 POSIX 相容檔案系統的功能。如果沒有指定, 您所看到功能,將會與 UFS 檔案系統相同。未指定 syncdir 可以明顯地增進配置磁碟區塊的寫入效能, 例如在檔案附加資料的情況時。然而,在某些情況下,若沒有 syncdir, 在未關閉檔案之前,您不會發現空間不足。因為沒有指定 syncdir 而發生問題,這種 機率非常小。使用 syncdir (和 POSIX 功能),可在關閉之前發現空間不足狀況。


    1. 要自動裝載叢集檔案系統,請將 mount at boot 欄位設定為 yes

    2. 使用下列的必要裝載選項。

      • 如您是使用 Solaris UFS logging,請使用 global、logging 裝載選項。

      • 如果叢集檔案系統使用 Solstice DiskSuite trans metadevice,請使用 global 裝設選項 (不要使用 logging 裝設選項)。請參照 Solstice DiskSuite 文件以取得有關設定 trans metadevices 的資訊。


      註解 -

      記錄對所有的叢集檔案系統是必要的。


    3. 對每一個叢集檔案系統,確定其 /etc/vfstab 登錄中的資訊在每一個節點上都是相同的。

    4. 檢查檔案系統的啟動次序相依關係。

      例如,考慮以下情況,phys-schost-1 裝載磁碟裝置 d0/global/oraclephys-schost-2 裝載磁碟裝置 d1/global/oracle/logs。這種配置, phys-schost-2 只能在 phys-schost-1 啟動 和裝載 /global/oracle 之後,啟動和裝載 /global/oracle/logs

    5. 請確定每一個節點的 /etc/vfstab 檔案中的登錄是以相同次序列示裝置。

    請參照 vfstab(4) 線上援助頁以取得詳細資訊。

  5. 在叢集中的任何節點上,確認存在裝載點而且 /etc/vfstab 檔案登錄在叢集的所有節點上都是正確的。


    # sccheck
    

    如果沒有發生錯誤,則不會傳回任何項目。

  6. 從叢集的任何節點,裝載叢集檔案系統。


    # mount /global/device-group/mount-point
    
  7. 在叢集的每一個節點,確認叢集檔案系統已經裝載。

    您可以使用 df(1M) 或 mount(1M) 指令列出裝載的檔案系統。

範例-建立叢集檔案系統

下列範例建立 UFS 叢集檔案系統於 Solstice DiskSuite metadevice /dev/md/oracle/rdsk/d1


# newfs /dev/md/oracle/rdsk/d1
...
 
(on each node:)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(save and exit)
 
(on one node:)
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 1999

下一步

如果您的叢集節點是連接到一個以上的公用子網路,若要配置額外的網路配接卡,請至 "如何配置額外的公用網路配接卡"

若要配置 PNM 和設定 NAFO 群組,請至 "如何配置公用網路管理 (PNM)"

如何配置額外的公用網路配接卡

如果您的叢集是連接到一個以上的公用子網路,您可以對次要子網路配置額外的公用網路配接卡。然而,配置額外的次要子網路並非必要。


註解 -

僅配置公用網路配接卡,不是私有網路配接卡。


  1. Sun Cluster 3.0 版本注意事項中取得您已完成的「公用網路表」。

  2. 成為要配置額外公用網路配接卡之節點上的高階使用者。

  3. 建立名稱為 /etc/hostname.adapter 的檔案,其中 adapter 是配接卡名稱。


    註解 -

    最每一個 NAFO 群組中,只能有一個配接卡存在 /etc/hostname.adapter 檔案。


  4. 鍵入公用網路配接卡 IP 位址的主機名稱至 /etc/hostname.adapter 檔案中。

    例如,下列顯示對配接卡 hme3 所建立的 /etc/hostname.hme3 檔案,包含主機名稱 phys-schost-1


    # vi /etc/hostname.hme3
    phys-schost-1 
  5. 在每一個叢集節點上,確定 /etc/inet/hosts 檔案包含指定給公用網路配接卡的 IP 位址和對應的主機名稱。

    例如,下列顯示 phys-schost-1 的登錄。


    # vi /etc/inet/hosts
    ...
    192.29.75.101 phys-schost-1
    ...


    註解 -

    如果您使用命名服務,此資訊也應該存在命名服務資料庫中。


  6. 在每一個叢集節點上,開啟配接卡。


    # ifconfig adapter plumb
    # ifconfig adapter hostname netmask + broadcast + -trailers up
    

  7. 確認配接卡是正確配置。


    # ifconfig adapter
    

    輸出應該包含配接卡的正確 IP 位址。

下一步

每一個受 Resource Group Manager (RGM) 管理的公用網路配接卡必須屬於 NAFO 群組。若要配置 PNM 和設定 NAFO 群組,請至 "如何配置公用網路管理 (PNM)"

如何配置公用網路管理 (PNM)

在叢集的每一個節點上執行此工作。


註解 -

所有的公用網路配接卡均必須屬於 Network Adapter Failover (NAFO) 群組。 此外,每一個節點每個子網路只能有一個 NAFO 群組。


  1. Sun Cluster 3.0 版本注意事項中取得您已完成的「公用網路表」。

  2. 成為要配置 NAFO 群組之節點上的高階使用者。

  3. 建立 NAFO 群組。


    # pnmset -c nafo_group -o create adapter [adapter ...]
    -c nafo_group

    配置 NAFO 群組 nafo_group

    -o create adapter

    建立新的 NAFO 群組包含一或多個公用網路配接卡

    請參照 pnmset(1M) 線上援助頁以取得其他資訊。

  4. 確認 NAFO 群組的狀態。


    # pnmstat -l
    

    請參照 pnmstat(1M) 線上援助頁以取得其他資訊。

範例-配置 PNM

下列範例建立 NAFO 群組 nafo0,是使用公用網路配接卡 qfe1qfe5


# pnmset -c nafo0 -o create qfe1 qfe5
# pnmstat -l
group  adapters       status  fo_time    act_adp
nafo0  qfe1:qfe5      OK      NEVER      qfe5
nafo1  qfe6           OK      NEVER      qfe6

下一步

如果您要變更任何私有主機名稱,請至 "如何變更私有主機名稱"。若要 更新 /etc/inet/ntp.conf 檔案,請至 "如何更新網絡時間協定 (NTP)"

如何變更私有主機名稱

如果您不要使用 Sun Cluster 軟體安裝期間所指定的預設私有主機名稱 (clusternodenodeid-priv),請執行此工作。


註解 -

這個程序不可以在應用程式和資料服務已配置和啟動之後執行。 否則,應用程式或資料服務可能會在更名之後繼續使用舊的私有主機名稱而導致衝突。如果有 任何應用程式或資料服務正在執行中,請停止它們之後再開始執行本程序。


  1. 成為叢集中節點的高階使用者。

  2. 啟動 scsetup(1M) 公用程式。


    # scsetup
    
  3. 若要處理私有主機名稱,請鍵入 4 (私有主機名稱)。

  4. 若要變更私有主機名稱,請鍵入 1 (變更私有主機名稱)。

    請遵循提示來變更私有主機名稱。對您要變更的每一個私有主機名稱重複進行。

  5. 驗證新的私有主機名稱。


    # scconf -pv | grep 'private hostname'
    (phys-schost-1) Node private hostname:      phys-schost-1-priv
    (phys-schost-3) Node private hostname:      phys-schost-3-priv
    (phys-schost-2) Node private hostname:      phys-schost-2-priv

下一步

若要更新 /etc/inet/ntp.conf 檔案,請至 "如何更新網絡時間協定 (NTP)"

如何更新網絡時間協定 (NTP)

在每一個節點上執行此工作。

  1. 成為叢集節點的高階使用者。

  2. 編輯 /etc/inet/ntp.conf 檔案。

    在標準叢集安裝中,scinstall(1M) 指令會複製 範本檔案 ntp.cluster/etc/inet/ntp.conf。 但是如果在安裝 Sun Cluster 之前,ntp.conf 檔案已經存在,則現存檔案維持不變。如果 是使用其它方式安裝叢集套件,例如直接使用 pkgadd(1M),您需要配置 NTP。

    1. 移除叢集未用的所有私有主機名稱登錄。

      如果 ntp.conf 檔案包含不存在的私有主機名稱, 當節點啟動而嘗試聯絡這些私有主機名稱時會產生錯誤訊息。

    2. 如果您在 Sun Cluster 軟體安裝之後變更了任何的私有主機名稱,請以新的私有主機名稱 更新每個檔案登錄。

    3. 如果需要,請進行修改以符合您的 NTP 需求。

      在叢集內配置 NTP 或任何時間同步化機能的主要需求是所有的叢集節點必須要同步化 成為相同的時間。優先考慮節點之間的時間同步,個別節點上的時間正確性是次要的。 您可以隨意配置 NTP 以最佳符合您的個人需求,只要能夠符合同步化的基本要求即可。

      請參照 Sun Cluster 3.0 概念 以取得有關叢集時間的進一步資訊, 並參照 ntp.cluster 範本作為 Sun Cluster 配置的配置 NTP 準則。

  3. 重新啟動 NTP 常駐程式。


    # /etc/init.d/xntpd stop
    # /etc/init.d/xntpd start
    

下一步

如果您要使用 Sun Management Center 產品來配置資源群組或監視叢集,請至 "Sun Cluster 監視的 Sun Management Center 軟體安裝需求"

若要安裝協力廠商應用程式,請參照應用程式軟體所提供的文件以及 Sun Cluster 3.0 Data Services Installation and Configuration Guide。要註冊資源類型、設定資源群組和配置資料服務,請參照 Sun Cluster 3.0 Data Services Installation and Configuration Guide