Sun Cluster 3.0 5/02 增補

配置叢集

下述資訊適用於本更新版次以及所有後續的更新版次。

如何新增叢集檔案系統 (5/02)

下列在步驟 2步驟 4步驟 8 中的變更已於 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。

在每個新增的個叢集檔案系統執行此程序。


Caution - Caution -

當您建立檔案系統時,磁碟上的所有資料都會被銷毀。 請務必指定正確的磁碟裝置名稱。 如果您指定錯誤的裝置名稱,您可能會消除不想刪除的資料。


如果您使用 SunPlex Manager 安裝資料服務,而且有足夠的共用硬碟用來建立叢集檔案系統,或許已經有一個或多個叢集檔案系統存在了。

  1. 確認是否已經安裝容體管理者軟體,並且已經配置好了。

    關於容體管理者的安裝程序,請參閱 Sun Cluster 3.0 12/01 軟體安裝手冊 中的「安裝和配置 Solstice DiskSuite 軟體」或「安裝並配置 VxVM 軟體」。

  2. 是否要安裝 VERITAS File System (VxFS) 軟體?

    • 如果不是,請至 步驟 3

    • 如果是,請執行下列步驟。

    1. 請依照 VxFS 安裝文件中的程序,將 VxFS 軟體安裝到叢集的每一個節點上。

    2. 請將每個節點 /etc/system 檔案內的以下設定值從原來的 0x4000 改成 0x6000


      set rpcmod:svc_default_stksize=0x6000

      Sun Cluster 軟體所需的預設堆疊大小設定不得低於 0x6000。由於 VxFS 安裝時會將此設定改成 0x4000,因此當 VxFS 安裝完畢後,您必須手動將該設定值改回 0x6000

  3. 成為叢集中任何節點的超級使用者。


    提示 -

    如果快速建立檔案系統,請在您要建立檔案系統的整體裝置現行主要節點上,成為超級使用者。


  4. 建立檔案系統。

    • 若您使用的是 VxFS 檔案系統,請依照 VxFS 說明文件中的程序進行。

    • 對於 UFS 檔案系統,請使用 newfs(1M) 指令。


      # newfs raw-disk-device
      

    下表顯示 raw-disk-device 引數的名稱範例。請注意,每一個容體管理者的命名慣例都不一樣。

    表 4-3 原始磁碟裝置名稱範例

    容體管理者 

    磁碟裝置名稱範例 

    說明 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    oracle 磁碟組內的原始磁碟裝置 d1

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg 磁碟群組內的原始磁碟裝置 vol01

    無 

    /dev/global/rdsk/d1s3

    原始磁碟裝置 d1s3

  5. 在叢集的每一個節點上建立叢集檔案系統的裝載點目錄。

    每一個節點上都需要裝載點,即使該節點上的叢集檔案系統不會被存取。


    提示 -

    為管理方便,請在 /global/device-group 目錄建立裝載點。這個位置可讓您輕易區分叢集檔案系統 (整體可用) 與本機檔案系統。



    # mkdir -p /global/device-group/mountpoint
    
    device-group

    與包含裝置的裝置群組名稱相同的目錄名稱

    mountpoint

    裝載叢集檔案系統的目錄名稱

  6. 在叢集的每一個節點,在 /etc/vfstab 檔加入裝載點的項目。

    1. 使用下列的必要裝載選項。

      記錄對所有的叢集檔案系統是必要的。

      • Solaris UFS logging - 使用 global,logging 裝載選項。請參閱 mount_ufs(1M) 線上援助頁,以取得關於 UFS 裝載選項的詳細資訊。


        註解 -

        syncdir 裝載選項對於 UFS 叢集檔案系統而言,並非必要。使用 syncdir 可保證 write() 系統呼叫的行為符合 POSIX 檔案系統的規範,也就是說,若 write() 執行成功,便可確定磁碟上還有剩餘空間可用。如果沒有指定 syncdir,您所看到功能,將會與 UFS 檔案系統相同。當未指定 syncdir 時,可以明顯地增進配置磁碟區塊的寫入功能,例如在檔案中附加資料的情況時。 然而,在某些情況下,若沒有 syncdir,在未關閉檔案之前,您不會發現空間不足 (ENOSPC)。只有剛好在故障轉移發生後非常短暫的期間內進行關閉檔案的動作,才有可能遇到 ENOSPC 狀態。使用 syncdir (和 POSIX 功能),可在關閉之前發現空間不足狀況。


      • Solstice DiskSuite 異動複合裝置 - 使用 global 裝載選項 (勿使用 logging 裝載選項)。請參閱 Solstice DiskSuite 說明文件,以取得有關設定異動複合裝置的資訊。

      • VxFS 記錄 - 使用 globallog 這兩個裝載選項。請參閱 mount_vxfs(1M) 線上援助頁,以取得關於 VxFS 裝載選項的詳細資訊。

    2. 若要自動裝載叢集檔案系統,請將 mount at boot 欄位設定為 yes

    3. 對每一個叢集檔案系統,確定其 /etc/vfstab 項目中的資訊在每一個節點上都是相同的。

    4. 請確定每一個節點的 /etc/vfstab 檔案中的項目是以相同次序列示裝置。

    5. 檢查檔案系統的啟動順序相依關係。

      例如,考慮以下情況,phys-schost-1 裝載磁碟裝置 d0/global/oraclephys-schost-2 裝載磁碟裝置 d1/global/oracle/logs。這種配置,phys-schost-2 必須在啟動和裝載 /global/oracle/logs 之前,先讓 phys-schost-1 啟動和裝載 /global/oracle 才行。

    請參閱 vfstab(4) 線上援助頁,以取得詳細資訊。

  7. 在叢集的任一節點上,驗證裝載點存在而且 /etc/vfstab 檔案項目在叢集的所有節點上都正確。


    # sccheck
    

    如果沒有發生錯誤,則不會傳回任何項目。

  8. 從叢集的任一節點裝載叢集檔案系統。


    # mount /global/device-group/mountpoint
    


    註解 -

    若您使用的是 VERITAS File System (VxFS),請在裝置-群組目前的主節點上裝載該檔案系統,才能確保成功將該檔案系統裝載上來。此外,VxFS 檔案系統的卸載也應該在裝置--群組目前的主節點上進行,才能確保成功將該檔案系統卸載下來。


  9. 在叢集的每一個節點上,驗證叢集檔案系統已經裝載。

    您可以使用 df(1M) 或 mount(1M) 指令來列出已裝載的檔案系統。

    在 Sun Cluster 環境內管理 VxFS 叢集檔案系統時,所有相關的管理指令只能在裝載了 VxFS 叢集檔案系統的主要節點上執行。

  10. 您的叢集節點是否連接到一個以上的公用子網路?

    • 如果是的話,請至 Sun Cluster 3.0 12/01 軟體安裝手冊 中的「如何配置額外的公用網路配接卡」,以配置其它公用網路配接卡。

    • 如果不是,請至 Sun Cluster 3.0 12/01 軟體安裝手冊 中的「如何配置公用網路管理 (PNM)」,以配置 PNM 並設定 NAFO 群組。

範例 - 建立叢集檔案系統

以下範例在 Solstice DiskSuite 複合裝置 /dev/md/oracle/rdsk/d1 上建立一個 UFS 叢集檔案系統。


# newfs /dev/md/oracle/rdsk/d1
...
 
(on each node)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(save and exit)
 
(on one node)
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 2000

如何更新網絡時間協定 (NTP)(5/02)

下列變更已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。

當 Sun Cluster 軟體安裝好之後,可依照以下步驟建立或修改 NTP 配置檔。當現有叢集內新增額外的節點,以及叢集內任何節點的專用主機名稱有變動時,NTP 配置檔也必須跟著修改。


註解 -

在叢集內配置 NTP 或任何時間同步化機能的主要需求,是所有的叢集節點必須要同步化成為相同的時間。優先考慮節點之間的時間同步,個別節點上的時間正確性是次要的。您可以隨意配置 NTP 以符合您的個人需求,只要能夠符合同步化的基本要求即可。 請參閱 Sun Cluster 3.0 12/01 概念,以取得關於叢集時間的詳細資訊。請參閱 /etc/inet/ntp.cluster 範本檔,以取得如何設定 Sun Cluster 配置的 NTP。


  1. 安裝 Sun Cluster 軟體之前,您是否已經自行安裝了 /etc/inet/ntp.conf 這個檔案?

    • 如果是,就不需修改 ntp.conf 檔案。請跳至 步驟 8

    • 如果不是,請至 步驟 2

  2. 成為叢集節點的超級使用者。

  3. 您已將自己的 /etc/inet/ntp.conf 檔案安裝在叢集節點上了嗎?

    • 如果有的話,請將您的 /etc/inet/ntp.conf 檔案複製到叢集中的每個節點上,然後跳到 步驟 6


      註解 -

      叢集中所有節點的時間均必須同步。


    • 如果不是的話,請跳到 步驟 4 以編輯 /etc/inet/ntp.conf.cluster 檔案。安裝 Sun Cluster 時,系統上若沒有 NTP 的配置檔 /etc/inet/ntp.conf,Sun Cluster 軟體便會建立這個檔案。請勿將 ntp.conf.cluster 檔案更名為 ntp.conf

  4. 在叢集的一個節點上,編輯 /etc/inet/ntp.conf.cluster 檔中的專用主機名稱。

    如果節點上沒有 /etc/inet/ntp.conf.cluster,請找找看先前安裝 Sun Cluster 軟體時是否有產生 /etc/inet/ntp.conf 這個檔案。如果有,請依照以下指示編輯該 ntp.conf 檔案的內容。

    1. 確定已輸入每個叢集節點的專用主機名稱。

    2. 刪除所有已經不再使用的專用主機名稱。

      如果 ntp.conf.cluster 檔案包含不存在的專用主機名稱,當節點啟動而嘗試聯絡這些專用主機名稱時,會產生錯誤訊息。

    3. 當任何節點的專用主機名稱有任何變動時,請務必一併將 NTP 配置檔中該節點原來的專用主機名稱改成新的名稱。

    4. 如有需要,請進行修改以符合您的 NTP 需求。

  5. 將此 NTP 配置檔複製到叢集中的所有節點上。

    所有叢集節點上的 ntp.conf.cluster 檔內容必須相同。

  6. 停止每一個節點上執行的 NTP 常駐程式。

    等所有節點上停止 NTP 常駐程式的指令成功執行完畢後,才繼續進行 步驟 7


    # /etc/init.d/xntpd stop
    

  7. 重新啟動每一個節點上的 NTP 常駐程式。

    • 使用 ntp.conf.cluster 檔案的節點,請執行以下指令。


      # /etc/init.d/xntpd.cluster start
      

      xntpd.cluster 啟動程序檔會先尋找 /etc/inet/ntp.conf 檔。如果有找到,此程序檔就不會啟動 NTP 常駐程式,並會立刻結束執行。如果系統上沒有 ntp.conf,但是有 ntp.conf.cluster,此程序檔便會以 ntp.conf.cluster 作為 NTP 的配置檔啟動 NTP 常駐程式。

    • 對於 ntp.conf,請執行下列指令。


      # /etc/init.d/xntpd start
      

  8. 是否要使用 Sun Management Center 配置資源群組或監視叢集?

    • 如果是的話,請至 Sun Cluster 3.0 12/01 軟體安裝手冊 中的「安裝 Sun Management Center 的 Sun Cluster 模組」。

    • 如果不是的話,請安裝協力廠商的應用程式,註冊資源種類,設定資源群組,並配置資料服務。 請參閱應用程式軟體與 Sun Cluster 3.0 12/01 Data Services Installation and Configuration Guide 隨附的文件。

如何啟動 Sun Management Center (5/02)

下列變更已在 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。

完成步驟 2 之後 - 完成步驟 2 之後,請將以下步驟當作新的步驟 3 進行。 原來的步驟 3 則變成步驟 4。

    確定每個 Sun Management Center 代理機器 (叢集節點) 上的 scsymon_srv 常駐程式都仍正常運作。


    # ps -ef | grep scsymon_srv
    

    如果有節點並未執行 scsymon_srv 常駐程式,請在該節點上啟動此常駐程式。


    # /usr/cluster/lib/scsymon/scsymon_srv