Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)

配置叢集

本節提供配置叢集上安裝之軟體的資訊與程序。

作業表︰ 配置叢集

下表列出配置叢集需要執行的作業。 開始進行這些作業之前,請先確定已經完成下列作業︰

表 2–10 作業表︰ 配置叢集

作業 

指令 

建立和裝載叢集檔案系統。 

如何新增叢集檔案系統

配置 IP Network Multipathing群組。 

如何配置 Internet Protocol (IP) Network Multipathing 群組

(可選用) 變更節點的專用主機名稱。

如何變更專用主機名稱

建立或修改 NTP 配置檔。 

如何配置網路時間通訊協定 (Network Time Protocol,NTP)

(可選用) SPARC: 將 Sun Cluster 模組安裝至 Sun Management Center 軟體。

SPARC: 安裝用於 Sun Management Center 的 Sun Cluster 模組

Sun Management Center 說明文件 

安裝協力廠商應用程式以及配置應用程式、資料服務和資源群組。 

Sun Cluster Data Service Planning and Administration Guide for Solaris OS

協力廠商應用程式說明文件 

如何新增叢集檔案系統

對每個新增的叢集檔案系統執行此程序。 可從叢集中的任何節點存取叢集檔案系統。


Caution – Caution –

當您建立檔案系統時,磁碟上的所有資料都會被銷毀。 請務必指定正確的磁碟裝置名稱。 如果您指定了錯誤的裝置名稱,則可能會消除不想刪除的資料。


如果您使用 SunPlex Manager 安裝了資料服務,則 SunPlex Manager 可能已經建立了一個或多個叢集檔案系統。

  1. 請確保已經安裝與配置容體管理程式軟體。

    如需容體管理程式安裝程序,請參閱安裝和配置 Solstice DiskSuite/Solaris Volume Manager 軟體 SPARC: 安裝與配置 VxVM 軟體

  2. 成為叢集中任何節點的超級使用者。


    提示 –

    若要快速建立檔案系統,請在您想建立檔案系統之整體裝置的現行主要節點上成為超級使用者。


  3. 建立檔案系統。

    • 針對 UFS 檔案系統,請使用 newfs(1M) 指令。


      # newfs raw-disk-device
      

    • SPARC: 對於 VxFS 檔案系統,請依照 VxFS 說明文件中提供的程序執行。

    下表顯示 raw-disk-device 引數的名稱範例。 請注意,每個容體管理程式的命名慣例都不一樣。

    容體管理程式 

    磁碟裝置名稱範例 

    說明 

    Solstice DiskSuite 或 Solaris Volume Manager 

    /dev/md/nfs/rdsk/d1

    nfs 磁碟組內的原始磁碟裝置 d1

    SPARC: VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg 磁碟群組內的原始磁碟裝置 vol01

    無 

    /dev/global/rdsk/d1s3

    原始磁碟裝置 d1s3

  4. 在叢集的每個節點上,建立叢集檔案系統的掛載點目錄。

    每個節點都需要掛載點,即使不在該節點上存取叢集檔案系統亦如此。


    提示 –

    為方便管理,請在 /global/device-group 目錄中建立裝載點。 這個位置可讓您輕易區分叢集檔案系統 (整體可用) 與本機檔案系統。



    # mkdir -p /global/device-group/mountpoint
    
    device-group

    與包含裝置的裝置群組名稱相同的目錄名稱

    mountpoint

    裝載叢集檔案系統的目錄名稱

  5. 在叢集的每個節點上,於掛載點的 /etc/vfstab 檔案內加入一個項目。

    請參閱 vfstab(4) 線上援助頁,以取得詳細資訊。

    1. 在每個項目中,為您使用的檔案系統類型指定需要的掛載選項。 請參閱表 2–11表 2–12,以取得所需掛載選項的清單。


      註解 –

      記錄對所有的叢集檔案系統是必要的。 然而,對於 Solstice DiskSuite 異動元式裝置或 Solaris Volume Manager 異動容體,請不要使用 logging 掛載選項。 異動元式裝置與異動容體提供它們自己的記錄。

      另外, Solaris Volume Manager transactional-volume logging在即將發行的 Solaris 版本中,依計劃會從 Solaris 作業環境中移除 Solaris Volume Managertransactional-volume logging (以前為 Solstice DiskSuite trans-metadevice logging)。 Solaris UFS logging 提供與其相同的功能,且效能更優、系統管理需求更低、管理費用更少。


      表 2–11 UFS 叢集檔案系統的掛載選項

      掛載選項 

      說明 

      global

      必需的。 該選項使檔案系統在叢集的所有節點上均整體可見。

      logging

      必需的。 該選項啟用記錄功能。

      forcedirectio

      對於將存放 Oracle Parallel Server/Real Application Clusters RDBMS 資料檔、日誌檔與控制檔的叢集檔案系統,此選項是必需的


      註解 –

      僅在基於 SPARC 的叢集中支援使用 Oracle Parallel Server/Real Application Clusters。


      syncdir

      可選用。 如果您指定 syncdir,POSIX 相容檔案系統的行為一定會適合 write() 系統呼叫。 如果 write() 成功,則此裝載選項可確保磁碟上有足夠的空間。

      如果沒有指定 syncdir,您所看到的行為將會與 UFS 檔案系統相同。 當未指定 syncdir 時,可以明顯地增進配置磁碟區塊 (例如在檔案中附加資料時) 的寫入效能。 然而,在某些情況下,若沒有 syncdir,在未關閉檔案之前,您不會發現空間不足 (ENOSPC)。

      故障轉移之後,僅在很短的時間內就會看到開啟的 ENOSPC 關閉。 使用 syncdir 及 POSIX 運作方式,在關閉之前就可發現空間不足的狀況。


      註解 –

      不要使用 onerror=umountonerror=lock 掛載選項。 在叢集檔案系統上不支援這些掛載選項,原因如下︰

      • 使用 onerror=umountonerror=lock 掛載選項可能導致叢集檔案系統鎖定或不可存取。 如果叢集檔案系統發生檔案毀損,可能會出現這種情況。

      • onerror=umountonerror=lock 掛載選項可能導致叢集檔案系統不可掛載。 由此,此情況可能導致使用叢集檔案系統的應用程式當機,或阻止終止應用程式。

      一個節點可能需要重新啟動才能從這些狀態恢復。

      Sun Cluster 軟體僅支援 onerror=panic 掛載選項。 您無須在/etc/vfstab 檔案中指定 onerror=panic 掛載選項。 如果未指定任何其他 onerror 掛載選項,此掛載選項便是預設值。


      請參閱 mount_ufs(1M) 線上說明手冊,以取得關於 UFS 掛載選項的詳細資訊。

      表 2–12 SPARC: VxFS 叢集檔案系統的掛載選項

      掛載選項 

      說明 

      global

      必需的。 該選項使檔案系統在叢集的所有節點上均整體可見。

      log

      必需的。 該選項啟用記錄功能。

      請參閱 VxFS mount_vxfs 線上說明手冊及Sun Cluster 系統管理指南 (適用於 Solaris 作業系統)中的「管理叢集檔案系統簡介」,以取得有關 VxFS 掛載選項的詳細資訊。

    2. 若要自動裝載叢集檔案系統,請將 mount at boot 欄位設定為 yes

    3. 對每一個叢集檔案系統,確定其 /etc/vfstab 項目中的資訊在每一個節點上都相同。

    4. 請確定每一個節點的 /etc/vfstab 檔案中的項目是以相同次序列示裝置。

    5. 檢查檔案系統的啟動順序相依關係。

      例如,考慮以下情況,phys-schost-1 裝載磁碟裝置 d0/global/oraclephys-schost-2 裝載磁碟裝置 d1/global/oracle/logs。 若使用這種配置,phys-schost-2 只能在 phys-schost-1 啟動和裝載 /global/oracle 之後,啟動和裝載 /global/oracle/logs

  6. 在叢集的任何節點上,執行 sccheck (1M) 公用程式。

    sccheck 公用程式驗證掛載點是否存在。 該公用程式還驗證在叢集的所有節點上 /etc/vfstab 檔案項目是否正確。


     # sccheck
    

    如果沒有發生錯誤,則不會傳回任何項目。

  7. 掛載叢集檔案系統。


    # mount /global/device-group/mountpoint
    

    • 對於 UFS,從叢集中的任何節點掛載叢集檔案系統。

    • SPARC: 對於 VERITAS File System (VxFS),從 device-group 的目前主節點掛載叢集檔案系統,以確保成功掛載檔案系統。 此外,從 device-group 的目前主節點卸載 VxFS 檔案系統,以確保成功卸載該檔案系統。


      註解 –

      若要在 Sun Cluster 環境中管理 VxFS 叢集檔案系統,請僅從掛載 VxFS 叢集檔案系統的主要節點執行管理指令。


  8. 在叢集的每一個節點上,驗證叢集檔案系統已經裝載。

    您可以使用 df(1M)mount(1M) 指令列出已裝載的檔案系統。

  9. 配置 IP Network Multipathing群組。

    請至 如何配置 Internet Protocol (IP) Network Multipathing 群組

範例 – 建立叢集檔案系統

以下範例在 Solstice DiskSuite metadevice /dev/md/oracle/rdsk/d1 上建立一個 UFS 叢集檔案系統。


# newfs /dev/md/oracle/rdsk/d1
…
 
(on each node)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type   ; pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(save and exit)
 
(on one node)
# sccheck
# mount /global/oracle/d1
# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2000

如何配置 Internet Protocol (IP) Network Multipathing 群組

在叢集的每一個節點上執行此作業。 如果您使用 SunPlex Manager 安裝了 Sun Cluster HA for Apache 或 Sun Cluster HA for NFS,SunPlex Manager 會為這些資料服務所使用的公用網路配接卡配置 IP Network Multipathing 群組。 您必須為其他公用網路配接卡配置 IP Network Multipathing 群組。


註解 –

所有公用網路配接卡均必須屬於某個 IP Network Multipathing群組。


  1. 使已完成的公用網路工作表可用。

  2. 配置 IP Network Multipathing群組。

    對 IPv4 位址執行IP Network Multipathing Administration Guide的「Deploying Network Multipathing」(對於 Solaris 8) 或者System Administration Guide: IP Services的「Administering Network Multipathing (Task)」(對於 Solaris 9) 中的程序。

    依照這些附加需求在配置 Sun Cluster 時配置 IP Network Multipathing群組:

    • 每一張公用網路配接卡必須屬於一個多重路徑群組。

    • 對於包含兩個或多個配接卡的多重路徑群組,您必須為群組中的每一個配接卡配置測試 IP 位址。 如果多重路徑群組僅包含一個配接卡,則無需配置測試 IP 位址。

    • 同一個多重路徑群組中所有配接卡的測試 IP 位址必須屬於單一 IP 子網路。

    • 一般應用程式不得使用測試 IP 位址,因為測試 IP 位址並不具備高度可用性。

    • /etc/default/mpathd 檔案中,請勿將 TRACK_INTERFACES_ONLY_WITH_GROUPS 的值從 yes 變更為 no

    • 多重路徑群組的名稱沒有任何要求或限制。

  3. 是否要變更任何專用主機名稱?

  4. 您是否在安裝 Sun Cluster 軟體之前,安裝了自己的 /etc/inet/ntp.conf 檔?

  5. 您是否在基於 SPARC 的系統上使用 Sun Cluster,並且要使用 Sun Management Center 來監視該叢集?

如何變更專用主機名稱

如果您不想使用安裝 Sun Cluster 軟體期間所指定的預設專用主機名稱 (clusternodenodeid-priv),請執行此作業。


註解 –

在應用程式和資料服務已配置和啟動之後執行此程序。 否則,應用程式或資料服務可能會在更名之後,繼續使用舊的專用主機名稱而導致主機名稱衝突。 如果有任何應用程式或資料服務正在執行中,請停止它們之後再執行此程序。


  1. 成為叢集中某個節點的超級使用者。

  2. 啟動 scsetup(1M) 公用程式。


    # scsetup
    

  3. Main Menu 中,選擇 Private hostnames

  4. Private Hostname Menu 中,選擇 Change a private hostname

  5. 請遵循提示來變更專用主機名稱。

    對要變更的每個專用主機名稱重複此步驟。

  6. 驗證新的專用主機名稱。


    # scconf -pv | grep "private hostname"
    (phys-schost-1) Node private hostname:      phys-schost-1-priv
    (phys-schost-3) Node private hostname:      phys-schost-3-priv
    (phys-schost-2) Node private hostname:      phys-schost-2-priv

  7. 您是否在安裝 Sun Cluster 軟體之前,安裝了自己的 /etc/inet/ntp.conf 檔?

  8. 您是否在基於 SPARC 的系統上使用 Sun Cluster,並且要使用 Sun Management Center 來監視該叢集?

如何配置網路時間通訊協定 (Network Time Protocol,NTP)

當 Sun Cluster 軟體安裝好之後,可執行此作業建立或修改 NTP 配置檔。 當您在現有的叢集內新增節點,或者當變更叢集中節點的專用主機名稱時,也必須修改 NTP 配置檔。

在叢集內配置 NTP 或任何時間同步化機能的主要需求,是所有的叢集節點必須要同步化成為相同的時間。 優先考慮節點之間的時間同步,個別節點上的時間正確性是次要的。 如果符合了此同步化的基本需求,您便可以隨意配置 NTP,使其完全滿足您的個人需要。

請參閱Sun Cluster 概念指南 (適用於 Solaris 作業系統),以取得關於叢集時間的進一步資訊。 請參閱 /etc/inet/ntp.cluster 範本檔,以取得如何設定 Sun Cluster 配置的 NTP 的其他準則。

  1. 您是否在安裝 Sun Cluster 軟體之前,安裝了自己的 /etc/inet/ntp.conf 檔?

    • 如果是,就不需修改 ntp.conf 檔案。 請跳到步驟 8

    • 如果否,請前進至步驟 2

  2. 成為叢集節點的超級使用者。

  3. 您已將自己的 /etc/inet/ntp.conf 檔案安裝在叢集節點上了嗎?

    • 如果否,請前進至步驟 4

    • 如果有的話,請將您的 /etc/inet/ntp.conf 檔案複製到叢集中的每個節點上,然後跳到 步驟 6

  4. 在叢集的一個節點上,編輯 /etc/inet/ntp.conf.cluster 檔中的專用主機名稱。


    註解 –

    請勿將 ntp.conf.cluster 檔案更名為 ntp.conf


    如果節點上沒有 /etc/inet/ntp.conf.cluster 檔案,您可以查看先前安裝 Sun Cluster 軟體時是否有產生 /etc/inet/ntp.conf 檔案。 如果 /etc/inet/ntp.conf 檔案尚未存在於節點上,則 Sun Cluster 軟體會建立 /etc/inet/ntp.conf.cluster 檔案作為 NTP 配置檔。 如果有,請依照以下指示編輯該 ntp.conf 檔案的內容。

    1. 確定已輸入每個叢集節點的專用主機名稱。

      如果您變更了任何節點的專用主機名稱,請確定 NTP 配置檔中包含新的專用主機名稱。

    2. 刪除所有已經不再使用的專用主機名稱。

      ntp.conf.cluster 檔案可能包含不存在的專用主機名稱。 重新啟動節點時,該節點會嘗試聯絡那些不存在的專用主機名稱,這時系統會產生錯誤訊息。

    3. 如有需要,請進行修改以符合您的 NTP 需求。

  5. 將此 NTP 配置檔複製到叢集中的所有節點上。

    所有叢集節點上的 NTP 配置檔內容必須相同。

  6. 停止每一個節點上執行的 NTP 常駐程式。

    等所有節點上停止 NTP 常駐程式的指令成功執行完畢後,才繼續進行步驟 7


    # /etc/init.d/xntpd stop
    

  7. 重新啟動每一個節點上的 NTP 常駐程式。

    • 如果您使用 ntp.conf.cluster 檔案,請執行以下指令:


      # /etc/init.d/xntpd.cluster start
      

      xntpd.cluster 啟動程序檔會先尋找 /etc/inet/ntp.conf 檔。 如果有找到,此程序檔就不會啟動 NTP 常駐程式,並會立刻結束執行。 如果 ntp.conf 檔案不存在,但 ntp.conf.cluster 檔案存在,則程序檔將啟動 NTP 常駐程式。 在此情況下,程序檔將使用 ntp.conf.cluster 檔案作為 NTP 配置檔。

    • 如果使用 ntp.conf 檔案,請執行以下指令︰


      # /etc/init.d/xntpd start
      
  8. 您是否在基於 SPARC 的系統上使用 Sun Cluster,並且要使用 Sun Management Center 來監視該叢集?