Sun Cluster 3.0 5/02 增補

如何新增叢集檔案系統 (5/02)

下列在步驟 2步驟 4步驟 8 中的變更已於 Sun Cluster 3.0 5/02 更新版次中介紹過,且適用於本更新版次以及 Sun Cluster 3.0 軟體所有後續的更新版次。

在每個新增的個叢集檔案系統執行此程序。


Caution - Caution -

當您建立檔案系統時,磁碟上的所有資料都會被銷毀。 請務必指定正確的磁碟裝置名稱。 如果您指定錯誤的裝置名稱,您可能會消除不想刪除的資料。


如果您使用 SunPlex Manager 安裝資料服務,而且有足夠的共用硬碟用來建立叢集檔案系統,或許已經有一個或多個叢集檔案系統存在了。

  1. 確認是否已經安裝容體管理者軟體,並且已經配置好了。

    關於容體管理者的安裝程序,請參閱 Sun Cluster 3.0 12/01 軟體安裝手冊 中的「安裝和配置 Solstice DiskSuite 軟體」或「安裝並配置 VxVM 軟體」。

  2. 是否要安裝 VERITAS File System (VxFS) 軟體?

    • 如果不是,請至 步驟 3

    • 如果是,請執行下列步驟。

    1. 請依照 VxFS 安裝文件中的程序,將 VxFS 軟體安裝到叢集的每一個節點上。

    2. 請將每個節點 /etc/system 檔案內的以下設定值從原來的 0x4000 改成 0x6000


      set rpcmod:svc_default_stksize=0x6000

      Sun Cluster 軟體所需的預設堆疊大小設定不得低於 0x6000。由於 VxFS 安裝時會將此設定改成 0x4000,因此當 VxFS 安裝完畢後,您必須手動將該設定值改回 0x6000

  3. 成為叢集中任何節點的超級使用者。


    提示 -

    如果快速建立檔案系統,請在您要建立檔案系統的整體裝置現行主要節點上,成為超級使用者。


  4. 建立檔案系統。

    • 若您使用的是 VxFS 檔案系統,請依照 VxFS 說明文件中的程序進行。

    • 對於 UFS 檔案系統,請使用 newfs(1M) 指令。


      # newfs raw-disk-device
      

    下表顯示 raw-disk-device 引數的名稱範例。請注意,每一個容體管理者的命名慣例都不一樣。

    表 4-3 原始磁碟裝置名稱範例

    容體管理者 

    磁碟裝置名稱範例 

    說明 

    Solstice DiskSuite 

    /dev/md/oracle/rdsk/d1

    oracle 磁碟組內的原始磁碟裝置 d1

    VERITAS Volume Manager 

    /dev/vx/rdsk/oradg/vol01

    oradg 磁碟群組內的原始磁碟裝置 vol01

    無 

    /dev/global/rdsk/d1s3

    原始磁碟裝置 d1s3

  5. 在叢集的每一個節點上建立叢集檔案系統的裝載點目錄。

    每一個節點上都需要裝載點,即使該節點上的叢集檔案系統不會被存取。


    提示 -

    為管理方便,請在 /global/device-group 目錄建立裝載點。這個位置可讓您輕易區分叢集檔案系統 (整體可用) 與本機檔案系統。



    # mkdir -p /global/device-group/mountpoint
    
    device-group

    與包含裝置的裝置群組名稱相同的目錄名稱

    mountpoint

    裝載叢集檔案系統的目錄名稱

  6. 在叢集的每一個節點,在 /etc/vfstab 檔加入裝載點的項目。

    1. 使用下列的必要裝載選項。

      記錄對所有的叢集檔案系統是必要的。

      • Solaris UFS logging - 使用 global,logging 裝載選項。請參閱 mount_ufs(1M) 線上援助頁,以取得關於 UFS 裝載選項的詳細資訊。


        註解 -

        syncdir 裝載選項對於 UFS 叢集檔案系統而言,並非必要。使用 syncdir 可保證 write() 系統呼叫的行為符合 POSIX 檔案系統的規範,也就是說,若 write() 執行成功,便可確定磁碟上還有剩餘空間可用。如果沒有指定 syncdir,您所看到功能,將會與 UFS 檔案系統相同。當未指定 syncdir 時,可以明顯地增進配置磁碟區塊的寫入功能,例如在檔案中附加資料的情況時。 然而,在某些情況下,若沒有 syncdir,在未關閉檔案之前,您不會發現空間不足 (ENOSPC)。只有剛好在故障轉移發生後非常短暫的期間內進行關閉檔案的動作,才有可能遇到 ENOSPC 狀態。使用 syncdir (和 POSIX 功能),可在關閉之前發現空間不足狀況。


      • Solstice DiskSuite 異動複合裝置 - 使用 global 裝載選項 (勿使用 logging 裝載選項)。請參閱 Solstice DiskSuite 說明文件,以取得有關設定異動複合裝置的資訊。

      • VxFS 記錄 - 使用 globallog 這兩個裝載選項。請參閱 mount_vxfs(1M) 線上援助頁,以取得關於 VxFS 裝載選項的詳細資訊。

    2. 若要自動裝載叢集檔案系統,請將 mount at boot 欄位設定為 yes

    3. 對每一個叢集檔案系統,確定其 /etc/vfstab 項目中的資訊在每一個節點上都是相同的。

    4. 請確定每一個節點的 /etc/vfstab 檔案中的項目是以相同次序列示裝置。

    5. 檢查檔案系統的啟動順序相依關係。

      例如,考慮以下情況,phys-schost-1 裝載磁碟裝置 d0/global/oraclephys-schost-2 裝載磁碟裝置 d1/global/oracle/logs。這種配置,phys-schost-2 必須在啟動和裝載 /global/oracle/logs 之前,先讓 phys-schost-1 啟動和裝載 /global/oracle 才行。

    請參閱 vfstab(4) 線上援助頁,以取得詳細資訊。

  7. 在叢集的任一節點上,驗證裝載點存在而且 /etc/vfstab 檔案項目在叢集的所有節點上都正確。


    # sccheck
    

    如果沒有發生錯誤,則不會傳回任何項目。

  8. 從叢集的任一節點裝載叢集檔案系統。


    # mount /global/device-group/mountpoint
    


    註解 -

    若您使用的是 VERITAS File System (VxFS),請在裝置-群組目前的主節點上裝載該檔案系統,才能確保成功將該檔案系統裝載上來。此外,VxFS 檔案系統的卸載也應該在裝置--群組目前的主節點上進行,才能確保成功將該檔案系統卸載下來。


  9. 在叢集的每一個節點上,驗證叢集檔案系統已經裝載。

    您可以使用 df(1M) 或 mount(1M) 指令來列出已裝載的檔案系統。

    在 Sun Cluster 環境內管理 VxFS 叢集檔案系統時,所有相關的管理指令只能在裝載了 VxFS 叢集檔案系統的主要節點上執行。

  10. 您的叢集節點是否連接到一個以上的公用子網路?

    • 如果是的話,請至 Sun Cluster 3.0 12/01 軟體安裝手冊 中的「如何配置額外的公用網路配接卡」,以配置其它公用網路配接卡。

    • 如果不是,請至 Sun Cluster 3.0 12/01 軟體安裝手冊 中的「如何配置公用網路管理 (PNM)」,以配置 PNM 並設定 NAFO 群組。

範例 - 建立叢集檔案系統

以下範例在 Solstice DiskSuite 複合裝置 /dev/md/oracle/rdsk/d1 上建立一個 UFS 叢集檔案系統。


# newfs /dev/md/oracle/rdsk/d1
...
 
(on each node)
# mkdir -p /global/oracle/d1
# vi /etc/vfstab
#device           device        mount   FS      fsck    mount   mount
#to mount         to fsck       point   type    pass    at boot options
#                       
/dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging
(save and exit)
 
(on one node)
# sccheck
# mount /global/oracle/d1
# mount
...
/global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/
largefiles on Sun Oct 3 08:56:16 2000