Sun Cluster 軟體安裝指南 (適用於 Solaris 作業系統)

配置叢集

本節提供配置叢集上安裝之軟體的資訊與程序。

如何建立叢集檔案系統

執行此程序,以建立叢集檔案系統。與本機檔案系統不同,叢集檔案系統可從叢集的任何節點存取。如果您已使用 SunPlex Installer 安裝資料服務,則 SunPlex Installer 可能已建立一個或多個叢集檔案系統。


Caution – Caution –

當您建立檔案系統時,磁碟上的所有資料都會被銷毀。請確定您已指定正確的磁碟裝置名稱。如果您指定錯誤的裝置名稱,則您可能會消除不想刪除的資料。


對要建立的每個叢集檔案系統執行此程序。

  1. 請確保已經安裝與配置容體管理程式軟體。

    如需容體管理程式安裝程序,請參閱安裝和配置 Solstice DiskSuite 或 Solaris 容體管理程式軟體SPARC: 安裝和配置 VxVM 軟體

  2. 成為叢集中任何節點的超級使用者。


    提示 –

    若要快速建立檔案系統,請在您想建立檔案系統之整體裝置的現行主要節點上成為超級使用者。


  3. 建立檔案系統。

    • 對於 UFS 檔案系統,請使用 newfs(1M) 指令。


      # newfs raw-disk-device
      

      下表顯示 raw-disk-device 引數的名稱範例。請注意,每個容體管理程式的命名慣例都不一樣。

      容體管理程式 

      磁碟裝置名稱範例 

      描述 

      Solstice DiskSuite 或 Solaris 容體管理程式 

      /dev/md/nfs/rdsk/d1

      nfs 磁碟組內的原始磁碟裝置 d1

      SPARC:VERITAS Volume Manager 

      /dev/vx/rdsk/oradg/vol01

      oradg 磁碟群組內的原始磁碟裝置 vol01

      無 

      /dev/global/rdsk/d1s3

      原始磁碟裝置 d1s3

    • 對於 Sun StorEdge QFS 檔案系統,請依照Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide中定義配置的程序執行。

    • SPARC:對於 VERITAS File System (VxFS) 檔案系統,請依照 VxFS 文件中提供的程序執行。

  4. 在叢集的每個節點上,建立叢集檔案系統的掛載點目錄。

    每個節點上都需要裝載點,即使該節點上的叢集檔案系統不會被存取。


    提示 –

    為方便管理,請在 /global/device-group/ 目錄中建立掛載點。這個位置可讓您輕易區分叢集檔案系統 (整體可用) 與本機檔案系統。



    # mkdir -p /global/device-group/mountpoint/
    
    device-group

    與包含裝置的裝置群組名稱相同的目錄名稱

    mountpoint

    裝載叢集檔案系統的目錄名稱

  5. 在叢集的每一個節點上,將裝載點的項目加入 /etc/vfstab 檔。

    請參閱 vfstab(4) 線上援助頁,以取得詳細資訊。

    1. 在每個項目中,指定您使用的檔案系統類型所必需的掛載選項。請參閱表 2–10表 2–11表 2–12,以取得必需的掛載點之清單。


      注意 –

      logging 掛載選項用於 Solstice DiskSuite 作業事件元式裝置或 Solaris 容體管理程式 作業事件容體。異動元式裝置與異動容體提供它們自己的記錄。

      另外, Solaris 容體管理程式 在即將發佈的 Solaris 發行版本中,依計劃會從 Solaris 作業系統中移除 異動容體記錄 (以前為 Solstice DiskSuite 異動複合裝置記錄)。Solaris UFS 記錄 提供與其相同的功能,且效能更優、系統管理需求更低、管理費用更少。


      表 2–10 UFS 叢集檔案系統的掛載選項

      掛載選項 

      描述 

      global

      必需的。該選項使檔案系統在叢集的所有節點上均整體可見。

      logging

      必需的。該選項啟用記錄功能。

      forcedirectio

      對於將存放 Oracle Real Application Clusters RDBMS 資料檔、日誌檔與控制檔的叢集檔案系統,此選項是必需的


      注意 –

      僅在基於 SPARC 的叢集中支援使用 Oracle Real Application Clusters。


      onerror=panic

      必需的。您無需在 /etc/vfstab 檔案中明確指定 onerror=panic 掛載選項。如果未指定任何其他 onerror 掛載選項,此掛載選項便是預設值。


      注意 –

      Sun Cluster 軟體僅支援 onerror=panic 掛載選項。不要使用 onerror=umountonerror=lock 掛載選項。在叢集檔案系統上不支援這些掛載選項,原因如下︰

      • 使用 onerror=umountonerror=lock 掛載選項可能導致叢集檔案系統鎖定或不可存取。如果叢集檔案系統發生檔案毀損,可能會出現這種情況。

      • onerror=umountonerror=lock 掛載選項可能導致叢集檔案系統無法掛載。由此,此情況可能導致使用叢集檔案系統的應用程式當機,或阻止終止應用程式。

      一個節點可能需要重新啟動才能從這些狀態恢復。


      syncdir

      可選。如果您指定 syncdir,POSIX 相容檔案系統的行為一定會適合 write() 系統呼叫。如果 write() 成功,則此裝載選項可確保磁碟上有足夠的空間。

      如果沒有指定 syncdir,則會發生透過 UFS 檔案系統所看到的相同行為。當未指定 syncdir 時,可以明顯地增進配置磁碟區塊的寫入功能,例如在檔案中附加資料的情況時。然而,在某些情況下,若沒有 syncdir,在未關閉檔案之前,您不會發現空間不足 (ENOSPC)。

      故障轉移之後,僅在很短的時間內就會看到開啟的 ENOSPC 關閉。使用 syncdir 及 POSIX 運作方式,在關閉之前就可發現空間不足的狀況。

      請參閱 mount_ufs(1M) 線上說明手冊,以取得有關 UFS 掛載選項的更多資訊。

      表 2–11 SPARC: Sun StorEdge QFS 共用檔案系統的掛載參數

      掛載參數 

      描述 

      shared

      必需的。該選項指定此為共用檔案系統,因此,對叢集的所有節點均可視。


      注意 – 注意 –

      確定 /etc/vfstab 檔案中的設定與 /etc/opt/SUNWsamfs/samfs.cmd 檔案中的設定不衝突。/etc/vfstab 檔案中的設定會置換 /etc/opt/SUNWsamfs/samfs.cmd 檔案中的設定。


      某些資料服務 (例如 Sun Cluster Support for Oracle Real Application Clusters) 對 QFS 具有掛載參數的附加需求和準則。請參閱資料服務使用手冊,以取得所有附加需求。

      請參閱 mount_samfs(1M) 線上說明手冊,以取得有關 QFS 掛載參數的更多資訊。


      注意 –

      /etc/vfstab 掛載參數不會啟動記錄。若要啟動記錄,請依照Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide中的程序執行。


      表 2–12 SPARC: VxFS 叢集檔案系統的掛載選項

      掛載選項 

      描述 

      global

      必需的。該選項使檔案系統在叢集的所有節點上均整體可見。

      log

      必需的。該選項啟用記錄功能。

      請參閱 VxFS mount_vxfs 線上說明手冊及Sun Cluster 系統管理 指南(適用於 Solaris 作業系統)」中的「管理叢集檔案系統概觀」,以取得有關 VxFS 掛載選項的更多資訊。

    2. 若要自動掛載叢集檔案系統,請將 mount at boot 欄位設定為 yes

    3. 針對每個叢集檔案系統,確定其 /etc/vfstab 項目中的資訊在每個節點上都相同。

    4. 請確定每一個節點的 /etc/vfstab 檔案中的項目是以相同次序列示裝置。

    5. 檢查檔案系統的啟動順序相依關係。

      例如,考量以下情況:phys-schost-1/global/oracle/ 上掛載磁碟裝置 d0,而 phys-schost-2/global/oracle/logs/ 上掛載磁碟裝置 d1。使用此配置,phys-schost-2 僅在 phys-schost-1 啟動和掛載 /global/oracle/ 之後,方可啟動和掛載 /global/oracle/logs/

  6. 在叢集的任何節點上,執行 sccheck(1M) 公用程式。

    sccheck 公用程式驗證掛載點是否存在。該公用程式還驗證在叢集的所有節點上 /etc/vfstab 檔案項目是否正確。


    # sccheck
    

    如果沒有發生錯誤,則不會傳回任何項目。

  7. 掛載叢集檔案系統。


    # mount /global/device-group/mountpoint/
    

    • 對於 UFS 和 QFS,從叢集中的任何節點掛載叢集檔案系統。

    • SPARC:對於 VxFS,從 device-group 目前的主節點處掛載叢集檔案系統,以確保成功掛載該檔案系統。此外,從 device-group 目前的主節點卸載 VxFS 檔案系統,以確保成功卸載該檔案系統。


      注意 –

      若要在 Sun Cluster 環境中管理 VxFS 叢集檔案系統,請僅從裝載 VxFS 叢集檔案系統的主要節點執行管理指令。


  8. 在叢集的每一個節點上,驗證叢集檔案系統已經裝載。

    您可以使用 df(1M)mount(1M) 指令列出掛載的檔案系統。

  9. 配置 IP 網路多重路徑連結群組。

    請移至如何配置 Internet Protocol (IP) 網路多重路徑 群組

範例 - 建立叢集檔案系統

以下範例在 Solstice DiskSuite metadevice /dev/md/oracle/rdsk/d1 上建立一個 UFS 叢集檔案系統。


# newfs /dev/md/oracle/rdsk/d1
…
 
(on each node)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type   ; pass    at boot options
#                     
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(save and exit)
 
(on one node)
# sccheck
# mount /global/oracle/d1
# mount
…
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles
on Sun Oct 3 08:56:16 2000

如何配置 Internet Protocol (IP) 網路多重路徑 群組

在叢集的每一個節點上執行此作業。如果您已使用 SunPlex Installer 安裝 Sun Cluster HA for Apache 或 Sun Cluster HA for NFS,SunPlex Installer 會為這些資料服務所使用的公用網路配接卡配置 IP 網路多重路徑連結群組。您必須為其餘公用網路配接卡配置 IP 網路多重路徑連結群組。


注意 –

所有公用網路配接卡均必須屬於某個 IP 網路多重路徑連結群組。


  1. 使已完成的公用網路工作表可用。

  2. 配置 IP 網路多重路徑連結群組。

    執行「IP Network Multipathing Administration Guide」(Solaris 8) 中的「Deploying Network Multipathing」或System Administration Guide: IP Services」(Solaris 9) 中的「Administering Network Multipathing (Task)」中針對 IPv4 位址的程序。

    依照這些附加需求在配置 Sun Cluster 時配置 IP 網路多重路徑連結群組:

    • 每一張公用網路配接卡必須屬於一個多重路徑群組。

    • 對於包含兩個或多個配接卡的多重路徑群組,您必須為群組中的每一個配接卡配置測試 IP 位址。如果多重路徑群組僅包含一個配接卡,則無需配置測試 IP 位址。

    • 同一個多重路徑群組中所有配接卡的測試 IP 位址必須屬於單一 IP 子網路。

    • 一般應用程式不得使用測試 IP 位址,因為測試 IP 位址並不具備高度可用性。

    • /etc/default/mpathd 檔案中,TRACK_INTERFACES_ONLY_WITH_GROUPS 的值必須為 yes

    • 多重路徑群組的名稱沒有任何要求或限制。

  3. 若要變更所有私有主機名稱,請移至如何變更私有主機名稱

  4. 如果您在安裝 Sun Cluster 軟體之前未安裝自己的 /etc/inet/ntp.conf 檔案,請安裝或建立 NTP 配置檔案。

    請移至如何配置網路時間通訊協定 (Network Time Protocol,NTP)

  5. 如果您是在基於 SPARC 的系統上使用 Sun Cluster,且希望使用 Sun Management Center 來監視叢集,則安裝 Sun Management Center 的 Sun Cluster 模組。

    請移至SPARC: 安裝用於 Sun Management Center 的 Sun Cluster 模組

  6. 安裝協力廠商的應用程式、註冊資源類型、設定資源群組以及配置資料服務。

    依照Sun Cluster Data Services Planning and Administration Guide for Solaris OS及應用程式軟體隨附的文件中的程序執行。

如何變更私有主機名稱

如果您不希望使用安裝 Sun Cluster 軟體期間所指定的預設私有主機名稱 (clusternodenodeid-priv),請執行此作業。


注意 –

在應用程式和資料服務已配置和啟動之後執行此程序。否則,應用程式或資料服務可能會在更名之後,繼續使用舊的私有主機名稱而導致主機名稱衝突。如果有任何應用程式或資料服務正在執行中,請停止它們之後再執行此程序。


在叢集的一個使用中節點上執行此程序。

  1. 成為叢集中某個節點的超級使用者。

  2. 啟動 scsetup(1M) 公用程式。


    # scsetup
    

  3. 從 [主功能表] 選擇功能表項目 [私有主機名稱]。

  4. 從 [私有主機名稱功能表] 選擇功能表項目 [變更私有主機名稱]。

  5. 請遵循提示來變更私有主機名稱。

    對要變更的每個私有主機名稱重複此步驟。

  6. 驗證新的私有主機名稱。


    # scconf -pv | grep "private hostname"
    (phys-schost-1) Node private hostname:      phys-schost-1-priv
    (phys-schost-3) Node private hostname:      phys-schost-3-priv
    (phys-schost-2) Node private hostname:      phys-schost-2-priv

  7. 如果您在安裝 Sun Cluster 軟體之前未安裝自己的 /etc/inet/ntp.conf 檔案,請安裝或建立 NTP 配置檔案。

    請移至如何配置網路時間通訊協定 (Network Time Protocol,NTP)

  8. (選擇性的) SPARC:配置 Sun Management Center 以監視叢集。

    請移至SPARC: 安裝用於 Sun Management Center 的 Sun Cluster 模組

  9. 安裝協力廠商的應用程式、註冊資源類型、設定資源群組以及配置資料服務。

    請參閱應用程式軟體隨附的文件與Sun Cluster Data Services Planning and Administration Guide for Solaris OS

如何配置網路時間通訊協定 (Network Time Protocol,NTP)

當 Sun Cluster 軟體安裝好之後,可執行此作業建立或修改 NTP 配置檔。當您在現有的叢集內新增節點,或者當變更叢集中節點的私有主機名稱時,也必須修改 NTP 配置檔。如果您已增加節點至單節點叢集,則必須確保所使用的 NTP 配置檔案已複製到原有的叢集節點。

在叢集內配置 NTP 或任何時間同步化機能的主要需求,是所有的叢集節點必須要同步化成為相同的時間。優先考慮節點之間的時間同步,個別節點上的時間正確性是次要的。如果符合了此同步化的基本需求,您便可以隨意配置 NTP,使其完全滿足您的個人需要。

請參閱Sun Cluster 概念指南 (適用於 Solaris 作業系統),以取得有關叢集時間的進一步資訊。請參閱 /etc/inet/ntp.cluster 範本檔,以取得如何設定 Sun Cluster 配置的 NTP 的其他準則。

  1. 如果您在安裝 Sun Cluster 軟體之前已安裝自己的 /etc/inet/ntp.conf 檔案,則無需修改 ntp.conf 檔案。

    請跳到步驟 8

  2. 成為叢集節點的超級使用者。

  3. 如果您有自己的檔案,請將其複製到叢集的每個節點。

  4. 如果您沒有自己的 /etc/inet/ntp.conf 檔案以進行安裝,請將 /etc/inet/ntp.conf.cluster 檔案用做 NTP 配置檔案。


    注意 –

    請勿將 ntp.conf.cluster 檔案重新命名為 ntp.conf


    如果節點上沒有 /etc/inet/ntp.conf.cluster 檔案,您可以從先前安裝的 Sun Cluster 軟體獲取 /etc/inet/ntp.conf 檔案。如果 /etc/inet/ntp.conf 檔案尚未存在於節點上,則 Sun Cluster 軟體會建立 /etc/inet/ntp.conf.cluster 檔案作為 NTP 配置檔。如果有,請依照以下指示編輯該 ntp.conf 檔案的內容。

    1. 使用喜好的文字編輯器在叢集中的一個節點上開啟 /etc/inet/ntp.conf.cluster 檔案,以進行編輯。

    2. 確定已輸入每個叢集節點的私有主機名稱。

      如果您變更了任何節點的私有主機名稱,請確定 NTP 配置檔中包含新的私有主機名稱。

    3. 刪除所有已經不再使用的私有主機名稱。

      ntp.conf.cluster 檔案可能包含不存在的私有主機名稱。重新啟動節點時,該節點會嘗試聯絡那些不存在的私有主機名稱,這時系統會產生錯誤訊息。

    4. 如有需要,請進行修改以符合您的 NTP 需求。

  5. 將此 NTP 配置檔複製到叢集中的所有節點上。

    所有叢集節點上的 NTP 配置檔內容必須相同。

  6. 停止每一個節點上執行的 NTP 常駐程式。

    等所有節點上停止 NTP 常駐程式的指令成功執行完畢後,才繼續進行 步驟 7


    # /etc/init.d/xntpd stop
    

  7. 重新啟動每一個節點上的 NTP 常駐程式。

    • 如果您使用 ntp.conf.cluster 檔案,請執行以下指令:


      # /etc/init.d/xntpd.cluster start
      

      xntpd.cluster 啟動程序檔會先尋找 /etc/inet/ntp.conf 檔。如果有找到,此程序檔就不會啟動 NTP 常駐程式,並會立刻結束執行。如果 ntp.conf 檔案不存在,但 ntp.conf.cluster 檔案存在,則程序檔將啟動 NTP 常駐程式。在此情況下,程序檔將使用 ntp.conf.cluster 檔案作為 NTP 配置檔。

    • 如果您使用 ntp.conf 檔案,請執行以下指令:


      # /etc/init.d/xntpd start
      
  8. (選擇性的) SPARC:配置 Sun Management Center 以監視叢集。

    請移至SPARC: 安裝用於 Sun Management Center 的 Sun Cluster 模組

  9. 安裝協力廠商的應用程式、註冊資源類型、設定資源群組以及配置資料服務。

    請參閱應用程式軟體隨附的文件與Sun Cluster Data Services Planning and Administration Guide for Solaris OS