在每個新增的個叢集檔案系統執行此工作。
建立檔案系統會銷毀磁碟上的所有資料。請確定您指定了正確的磁碟裝置名稱。如果指定 的裝置名稱錯誤,在新的檔案系統建立時會刪除其內容。
成為叢集中所有節點的高階使用者。
為了較快建立檔案系統,對於您要建立檔案系統之全域裝置目前的主要節點,將您自己設定為 高階使用者。
使用 newfs(1M) 指令建立檔案系統。
# newfs raw-disk-device |
下表顯示 raw-disk-device 引數的名稱範例。請注意,命名慣例對每一個容體管理者並不相同。
表 2-3 原始磁碟裝置名稱範例
容體管理者 |
磁碟裝置名稱範例 |
說明 |
---|---|---|
Solstice DiskSuite |
/dev/md/oracle/rdsk/d1 |
oracle 磁碟組內的原始磁碟裝置 d1 |
VERITAS 容體管理者 |
/dev/vx/rdsk/oradg/vol01 |
oradg 磁碟群組內的原始磁碟裝置 vol01 |
無 |
/dev/global/rdsk/d1s3 |
原始磁碟裝置 d1s3 |
在叢集的每一個節點上建立叢集檔案系統的裝載點目錄。
每一個節點上均需要有裝載點,即使該節點不會存取叢集檔案系統。
# mkdir -p /global/device-group/mount-point |
與包含裝置的裝置群組名稱相同的目錄名稱
裝載叢集檔案系統的目錄名稱
為了簡化管理,請於 /global/ddevice-group 目錄,建立裝載點。這個位置可讓您容易區分叢集檔案系統是全域可用或區域檔案系統。
在叢集的每一個節點上,於 /etc/vfstab 檔案中新增裝載點的登錄。
syncdir 裝載選項對於叢集檔案系統而言,並非必要。如果您指定 syncdir,您可以獲得保證的 POSIX 相容檔案系統的功能。如果沒有指定, 您所看到功能,將會與 UFS 檔案系統相同。未指定 syncdir 可以明顯地增進配置磁碟區塊的寫入效能, 例如在檔案附加資料的情況時。然而,在某些情況下,若沒有 syncdir, 在未關閉檔案之前,您不會發現空間不足。因為沒有指定 syncdir 而發生問題,這種 機率非常小。使用 syncdir (和 POSIX 功能),可在關閉之前發現空間不足狀況。
要自動裝載叢集檔案系統,請將 mount at boot 欄位設定為 yes。
如您是使用 Solaris UFS logging,請使用 global、logging 裝載選項。
如果叢集檔案系統使用 Solstice DiskSuite trans metadevice,請使用 global 裝設選項 (不要使用 logging 裝設選項)。請參照 Solstice DiskSuite 文件以取得有關設定 trans metadevices 的資訊。
記錄對所有的叢集檔案系統是必要的。
對每一個叢集檔案系統,確定其 /etc/vfstab 登錄中的資訊在每一個節點上都是相同的。
檢查檔案系統的啟動次序相依關係。
例如,考慮以下情況,phys-schost-1 裝載磁碟裝置 d0 在 /global/oracle, phys-schost-2 裝載磁碟裝置 d1 在 /global/oracle/logs。這種配置, phys-schost-2 只能在 phys-schost-1 啟動 和裝載 /global/oracle 之後,啟動和裝載 /global/oracle/logs。
請確定每一個節點的 /etc/vfstab 檔案中的登錄是以相同次序列示裝置。
請參照 vfstab(4) 線上援助頁以取得詳細資訊。
在叢集中的任何節點上,確認存在裝載點而且 /etc/vfstab 檔案登錄在叢集的所有節點上都是正確的。
# sccheck |
如果沒有發生錯誤,則不會傳回任何項目。
從叢集的任何節點,裝載叢集檔案系統。
# mount /global/device-group/mount-point |
在叢集的每一個節點,確認叢集檔案系統已經裝載。
您可以使用 df(1M) 或 mount(1M) 指令列出裝載的檔案系統。
下列範例建立 UFS 叢集檔案系統於 Solstice DiskSuite metadevice /dev/md/oracle/rdsk/d1。
# newfs /dev/md/oracle/rdsk/d1 ... (on each node:) # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging (save and exit) (on one node:) # sccheck # mount /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/ largefiles on Sun Oct 3 08:56:16 1999 |
如果您的叢集節點是連接到一個以上的公用子網路,若要配置額外的網路配接卡,請至 "如何配置額外的公用網路配接卡"。
若要配置 PNM 和設定 NAFO 群組,請至 "如何配置公用網路管理 (PNM)"。