使用本章中的程序以及規劃容體管理 中的規劃資訊,來為 Solstice DiskSuite/Solaris Volume Manager 軟體安裝和配置您的本機和多重主機磁碟。 請參閱 Solstice DiskSuite/Solaris Volume Manager 說明文件,以取得其他詳細資訊。
本章包含下列資訊與程序︰
本節提供了安裝與配置 Solstice DiskSuite/Solaris Volume Manager 軟體的資訊和程序。
下表列出安裝和配置用於 Sun Cluster 配置的 Solstice DiskSuite/Solaris Volume Manager 軟體時,所需執行的作業。 在下列情況下,您可以略過特定程序:
如果您已使用 SunPlex Manager 安裝了 Solstice DiskSuite 軟體 (Solaris 8),便已完成如何安裝 Solstice DiskSuite 軟體 至如何建立狀態資料庫複本 的程序。 請移至鏡像根磁碟 或如何建立磁碟組 繼續配置 Solstice DiskSuite 軟體。
如果您已安裝 Solaris 9 軟體,則表示已經安裝了 Solaris Volume Manager。 您可以從如何設定複合裝置名稱或容體名稱與磁碟組的數目 開始。
下列範例協助解釋了決定在每個磁碟組中放置磁碟機的數目的程序。 在此範例中,使用三個儲存裝置。 現有應用程式透過 NFS (兩個檔案系統,每個為 5 GB) 與兩個 ORACLE 資料庫 (一個為 5 GB,另一個為 10 GB) 來執行。
下表顯示用來決定配置範例中所需磁碟機數目的計算方式。 透過三個儲存裝置進行配置時,需要有 28 個磁碟機,這些磁碟機會在三個儲存裝置之間盡可能平均地進行分配。 請注意,5 GB 的檔案系統會額外需要 1 GB 的磁碟空間,因為需要的磁碟機數目會執行捨入。
表 3–2 決定配置需要的磁碟機數目
使用 |
資料 |
需要的磁碟儲存體 |
需要的磁碟機 |
---|---|---|---|
nfs1 |
5 GB |
3x2.1 GB 磁碟 * 2 (鏡像) |
6 |
nfs2 |
5 GB |
3x2.1 GB磁碟 * 2 (鏡像) |
6 |
SPARC: oracle1 |
5 GB |
3x2.1 GB 磁碟 * 2 (鏡像) |
6 |
SPARC: oracle2 |
10 GB |
5x2.1 GB 磁碟 * 2 (鏡像) |
10 |
下表顯示了兩個磁碟組和四個資料服務之間的磁碟機配置。
表 3–3 磁碟組的分割
磁碟組 |
資料服務 |
磁碟機 |
儲存裝置 1 |
儲存裝置 2 |
儲存裝置 3 |
---|---|---|---|---|---|
dg-schost-1 |
nfs1、oracle1 |
12 |
4 |
4 |
4 |
dg-schost-2 |
nfs2、oracle2 |
16 |
5 |
6 |
5 |
最初,將每個儲存裝置上的四個磁碟機 (總計 12 個磁碟) 指定給 dg-schost-1,將每個儲存裝置上的五個或六個磁碟機 (總計 16 個磁碟) 指定給 dg-schost-2。
沒有指定任何緊急備用磁碟給任何磁碟組。 每個磁碟組的每個儲存裝置至少有一個緊急備用磁碟,這樣便可以讓某個磁碟機具備緊急備用功能 (回復完整的雙向鏡像)。
如果您已使用 SunPlex Manager 安裝了 Solstice DiskSuite 軟體,請不要執行此程序。 請改跳到鏡像根磁碟 。
如果您已安裝 Solaris 9 軟體,請不要執行此程序。 Solaris Volume Manager 軟體會隨 Solaris 9 軟體一併安裝。 請改跳到如何設定複合裝置名稱或容體名稱與磁碟組的數目 。
在叢集的每一個節點上執行此作業。
儲存磁碟機的對應。
下列完成的配置規劃工作表。 請參閱 規劃容體管理 ,以取得規劃準則。
成為叢集節點的超級使用者。
如果您要從 CD-ROM 進行安裝,請將 Solaris 8 Software 2 片 CD-ROM 的第 2 片插入節點上的 CD-ROM 光碟機。
此步驟是假設「容體管理」常駐程式 vold(1M) 為執行狀態,且配置為可管理 CD-ROM 裝置。
依照下列範例中顯示的次序安裝 Solstice DiskSuite 軟體套件。
# cd /cdrom/sol_8_sparc_2/Solaris_8/EA/products/DiskSuite_4.2.1/sparc/Packages # pkgadd -d . SUNWmdr SUNWmdu [SUNWmdx] optional-pkgs |
如果您要安裝 Solstice DiskSuite 軟體修補程式,那麼在安裝 Solstice DiskSuite 軟體之後請不要重新開機。
所有 Solstice DiskSuite 安裝均需要 SUNWmdr 和 SUNWmdu 套件。 64 位元的 Solstice DiskSuite 安裝同樣需要 SUNWmdx 套件。
請參閱 Solstice DiskSuite 安裝說明文件以取得關於選用軟體套件的資訊。
如果您是從 CD-ROM 安裝,請退出 CD-ROM。
安裝任何 Solstice DiskSuite 修補程式。
請參閱Sun Cluster 3.1 版次注意事項中的「修補程式與必需的韌體層次」,以找出修補程式和安裝指示的位置。
從叢集的某個節點上,手動總裝 Solstice DiskSuite 的整體裝置名稱空間。
# scgdevs |
Could not open /dev/rdsk/c0t6d0s2 to verify device id, Device busy |
如果列出的裝置為一個 CD-ROM 裝置,則可以安全地忽略此訊息。
設定此叢集預定的複合裝置名稱與磁碟組數目。
如果您已使用 SunPlex Manager 安裝了 Solstice DiskSuite 軟體,請不要執行此程序。 請改跳到鏡像根磁碟 。
此程序說明如何決定您配置所需的 Solstice DiskSuite 複合裝置或 Solaris Volume Manager 容體名稱與磁碟組的數目。 此程序同時描述如何修改 /kernel/drv/md.conf 檔案,以指定這些數字。
每個磁碟組的預設複合裝置或容體名稱的數目是 128,但許多配置需要的數目比預設值大。 實做某項配置之前,請將此數目調高,以節省未來花在管理上的時間。
同時,讓 nmd 欄位和 md_nsets 欄位的值越低越好。 記憶體結構會針對如 nmd 和 md_nsets 所決定的所有可能裝置而存在,即使您尚未建立那些裝置。 為了取得最佳效能,只讓 nmd 和 md_nsets 的值稍微比您計劃使用的元式裝置或容體數量高。
使磁碟裝置群組配置工作表可用。
決定您在叢集中預期需要的磁碟組總數,然後針對專用磁碟管理再新增一個磁碟組。
叢集最多可擁有 32 個磁碟組,其中 31 個磁碟組為一般使用,另一個則供專用磁碟管理使用。 預設磁碟組數目為 4。您可在步驟 4 中的 md_nsets 欄位內提供此值。
決定叢集中您所預期任何一個磁碟組會需要的最大複合裝置或容體名稱。
每個磁碟組最多可擁有 8192 個複合裝置或容體名稱。 您將在步驟 4 中為 nmd 欄位提供這個值。
決定您所預期每一個磁碟組會需要的複合裝置或容體名稱數量。
如果您使用本機複合裝置或容體,請確保叢集中的每個本機複合裝置或容體名稱均是唯一的,而且不使用與叢集中任何裝置 ID 相同的名稱。
請挑選一個範圍內的數字專門給裝置 ID 名稱使用,另外挑選一個數字範圍專門給每個節點的本機複合裝置或容體名稱使用。 例如,裝置 ID 名稱可以使用 d1 至 d100 範圍之間的數字。 節點 1 上的本機複合裝置或容體名稱可以使用 d100 至 d199 範圍之間的數字。 而節點 2 上的本機複合裝置或容體名稱則可以使用 d200 至 d299 之間的數字。
決定您所預期任何一個磁碟組會使用的最高複合裝置或容體名稱。
複合裝置或容體名稱數量的設定是根據複合裝置或容體名稱的值決定,而不是取決於實際的數量。 例如,如果您的複合裝置或容體名稱範圍從 d950 到 d1000,則 Solstice DiskSuite/Solaris Volume Manager 軟體需要您將值設定為 1000 個名稱,而非 50。
在每一個節點上,以超級使用者的身份登入並編輯 /kernel/drv/md.conf 檔案。
無論由每個節點提供服務的磁碟組數目為何,所有叢集節點 (叢集對架構中的叢集對) 都必須具有相同的 /kernel/drv/md.conf 檔案。 未遵循此準則會導致嚴重的 Solstice DiskSuite/Solaris Volume Manager 錯誤並可能會有資料流失。
在每個節點上執行重新配置方式的重開機。
# touch /reconfigure # shutdown -g0 -y -i6 |
在執行重新配置重新開機之後,/kernel/drv/md.conf 檔案的變更將生效。
建立本機狀態資料庫複本。
請至 如何建立狀態資料庫複本 。
如果您已使用 SunPlex Manager 安裝了 Solstice DiskSuite 軟體,請不要執行此程序。 請改跳到鏡像根磁碟 。
在叢集的每一個節點上執行此程序。
成為叢集節點的超級使用者。
使用 metadb 指令在一個或多個本機磁碟上,針對每一個叢集節點建立狀態資料庫複本。
請使用實體名稱 (cNtXdYsZ),而非裝置 ID 名稱 (dN),來指定要使用的片段。
# metadb -af slice-1 slice-2 slice-3 |
若要提供狀態資料的保護 (執行 Solstice DiskSuite/Solaris Volume Manager 軟體時所需),對每一個節點至少要建立三個複本。 而且,要將複本分置於一個以上的磁碟,以便在其中一個磁碟損壞時能夠提供保護。
請參閱 metadb(1M) 線上援助頁以及您的 Solstice DiskSuite/Solaris Volume Manager 說明文件,以取得詳細資訊。
請確認複本。
# metadb |
metadb 指令會顯示複本清單。
確定要對根磁碟做檔案系統鏡像?
以下範例顯示了三個 Solstice DiskSuite 狀態資料庫副本。 每個複本均建立在不同的磁碟上。 至於 Solaris Volume Manager,複本會較大。
# metadb -af c0t0d0s7 c0t1d0s7 c1t0d0s7 # metadb flags first blk block count a u 16 1034 /dev/dsk/c0t0d0s7 a u 16 1034 /dev/dsk/c0t1d0s7 a u 16 1034 /dev/dsk/c1t0d0s7 |
鏡像根磁碟可防止叢集節點本身因為系統磁碟損壞而關機。 根磁碟上可存在四種檔案系統類型。 每一種檔案系統類型均透過不同的方法進行鏡像。
此鏡像程序中的某些步驟可能導致類似以下的錯誤訊息,該訊息不會造成危害,可以將其忽略。
metainit: dg-schost-1: d1s0: not a metadevice |
對於本機磁碟鏡像,當您指定磁碟名稱時,不要使用 /dev/global 作為路徑。 除了在叢集檔案系統外,在其他情況下指定此路徑會讓系統無法啟動。
請使用此程序鏡像根 (/) 檔案系統。
成為節點上的超級使用者。
使用 metainit(1M) 指令將根片段放置於單一片段 (單向) 串接。
指定根磁碟片段的實體磁碟名稱 (cNtXdYsZ)。
# metainit -f submirror1 1 1 root-disk-slice |
建立第二個串接。
# metainit submirror2 1 1 submirror-disk-slice |
建立只含一個子鏡像的單向鏡像。
# metainit mirror -m submirror1 |
鏡像的複合裝置或容體名稱在叢集中必須是唯一的。
執行 metaroot(1M) 指令。
這個指令編輯 /etc/vfstab 和 /etc/system 檔,讓系統可以由複合裝置或容體上的 root (/) 檔案系統啟動。
# metaroot mirror |
執行 lockfs(1M) 指令。
這個指令會將記錄中的所有異動清除,並將異動寫入至所有已裝載 UFS 檔案系統的主檔案系統。
# lockfs -fa |
從此節點中移出所有資源群組或裝置群組。
# scswitch -S -h from-node |
移動所有資源群組和裝置群組
指定要從中移出資源群組或裝置群組的節點名稱
重新啟動節點。
這個指令會重新裝載新鏡像的 root (/) 檔案系統。
# shutdown -g0 -y -i6 |
使用 metattach(1M) 指令將第二個子鏡像附加到鏡像。
# metattach mirror submirror2 |
用來鏡像根磁碟的磁碟是否實際連接到一個以上的節點 (多埠連接)?
如果不是,請繼續至步驟 11。
如果是,請執行下列步驟,為用來鏡像根磁碟的磁碟啟用原始磁碟裝置群組的 localonly 屬性。 如果某個節點的開機裝置連接至多個節點,您必須啟用 localonly 屬性,才可避免不小心將節點與其開機裝置隔離開。
必要時,使用 scdidadm(1M) -L 指令來顯示原始磁碟裝置群組的完整裝置 ID 路徑名稱。
在下列範例中,原始磁碟裝置群組名稱 dsk/d2 是輸出第三欄 (完整裝置 ID 路徑名稱) 的一部分。
# scdidadm -L … 1 phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 |
檢視原始磁碟裝置群組的節點清單。
輸出結果如下所示:
# scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … |
節點清單是否含有一個以上的節點名稱?
在原始磁碟裝置群組的節點清單中,除了您對其根磁碟進行鏡像的節點以外,移除所有其他節點。
唯有已經進行根磁碟鏡像的節點才應該保留在節點清單內。
# scconf -r -D name=dsk/dN,nodelist=node |
指定原始磁碟裝置群組的叢集唯一名稱
指定要從節點清單移除的節點名稱
使用 scconf(1M) 指令來啟用 localonly 屬性。
啟用 localonly 屬性後,原始磁碟裝置群組將由節點清單中的節點專用。 當開機裝置連接到多個節點時,這樣做可避免不小心將節點與其開機裝置隔離開。
# scconf -c -D name=rawdisk-groupname,localonly=true |
指定原始磁碟裝置群組的名稱
關於 localonly 屬性的詳細資訊,請參閱 scconf_dg_rawdisk(1M) 線上援助頁。
如果主要開機裝置失敗了,您就可以從這個開機裝置開機。 請參閱Solstice DiskSuite 4.2.1 User's Guide的「Troubleshooting the System」或Solaris Volume Manager Administration Guide的「Mirroring root (/) Special Considerations」,以取得關於替代開機裝置的詳細資訊。
# ls -l /dev/rdsk/root-disk-slice |
確定鏡像的每個複合裝置或容體名稱在叢集中均是唯一的。
是否要鏡像全域名稱空間 /global/.devices/node@nodeid?
若是,請移至如何鏡像全域名稱空間 。
若不是,請繼續至步驟 14。
確定要對無法卸載的檔案系統進行鏡像?
若是,請移至如何鏡像無法卸載的 Root (/) 以外的檔案系統。
若不是,請繼續至步驟 15。
確定要對使用者定義的檔案系統進行鏡像?
如果是,請至如何鏡像無法卸載的檔案系統。
如果不是,請至 如何建立磁碟組 以建立磁碟組。
下列範例顯示在節點 phys-schost-1 上建立的鏡像 d0,是由分割區 c0t0d0s0 上的子鏡像 d10 和分割區 c2t2d0s0 上的子鏡像 d20 組成。 磁碟 c2t2d0 是多埠連接的磁碟,所以啟用 localonly 屬性。
(Create the mirror) # metainit -f d10 1 1 c0t0d0s0 d11: Concat/Stripe is setup # metainit d20 1 1 c2t2d0s0 d12: Concat/Stripe is setup # metainit d0 -m d10 d10: Mirror is setup # metaroot d0 # lockfs -fa (Move resource groups and device groups from phys-schost-1) # scswitch -S -h phys-schost-1 (Reboot the node) # shutdown -g0 -y -i6 (Attach the second submirror) # metattach d0 d20 d0: Submirror d20 is attached (Display the device-group node list) # scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … (Remove phys-schost-3 from the node list) # scconf -r -D name=dsk/d2,nodelist=phys-schost-3 (Enable the localonly property) # scconf -c -D name=dsk/d2,localonly=true (Record the alternate boot path) # ls -l /dev/rdsk/c2t2d0s0 lrwxrwxrwx 1 root root 57 Apr 25 20:11 /dev/rdsk/c2t2d0s0 –> ../../devices/node@1/pci@1f,0/pci@1/scsi@3,1/disk@2,0:a,raw |
使用此程序可以鏡像全域名稱空間,/global/.devices/node@nodeid。
成為叢集上某個節點的超級使用者。
將全域名稱空間片段置於單一片段 (單向) 串接。
請使用磁碟片段的實體磁碟名稱 (cNtXdYsZ)。
# metainit -f submirror1 1 1 diskslice |
建立第二個串接。
# metainit submirror2 1 1 submirror-diskslice |
建立只含一個子鏡像的單向鏡像。
# metainit mirror -m submirror1 |
鏡像的複合裝置或容體名稱在叢集中必須是唯一的。
連接第二子鏡像至鏡像。
這個連接動作會啟動子鏡像的同步作業。
# metattach mirror submirror2 |
編輯 /etc/vfstab 檔案項目 (為 /global/.devices/node@nodeid 檔案系統的項目)。
將 device to mount 和 device to fsck 兩欄中的名稱置換成鏡像名稱。
# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/mirror /dev/md/rdsk/mirror /global/.devices/node@nodeid ufs 2 no global |
等待步驟 5 中開始的鏡像同步作業完成。
使用 metastat(1M) 指令檢視鏡像狀態並確認鏡像同步作業已經完成。
# metastat mirror |
用來鏡像全域名稱空間的磁碟是否實際連接到一個以上的節點 (多埠連接)?
如果不是,請繼續至步驟 10。
如果是,請執行下列步驟,以便為用於鏡像全域名稱空間的磁碟啟用原始磁碟裝置群組的 localonly 屬性。 如果某個節點的開機裝置連接至多個節點,您必須啟用 localonly 屬性,才可避免不小心將節點與其開機裝置隔離開。
必要時,使用 scdidadm(1M) 指令來顯示原始磁碟裝置群組的完整裝置 ID 路徑名稱。
在下列範例中,原始磁碟裝置群組名稱 dsk/d2 是輸出第三欄 (完整裝置 ID 路徑名稱) 的一部分。
# scdidadm -L … 1 phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 |
檢視原始磁碟裝置群組的節點清單。
輸出結果如下所示。
# scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … |
節點清單是否含有一個以上的節點名稱?
除了對其磁碟進行鏡像的節點之外,將此原始磁碟裝置群組節點清單中的其他節點全部移除。
唯有已經進行磁碟鏡像的節點才應該保留在節點清單內。
# scconf -r -D name=dsk/dN,nodelist=node |
指定原始磁碟裝置群組的叢集唯一名稱
指定要從節點清單移除的節點名稱
使用 scconf(1M) 指令來啟用 localonly 屬性。
啟用 localonly 屬性後,原始磁碟裝置群組將由節點清單中的節點專用。 當開機裝置連接到多個節點時,這樣做可避免不小心將節點與其開機裝置隔離開。
# scconf -c -D name=rawdisk-groupname,localonly=true |
指定原始磁碟裝置群組的名稱
關於 localonly 屬性的詳細資訊,請參閱 scconf_dg_rawdisk(1M) 線上援助頁。
您是否要鏡像無法卸載的 root (/) 以外的檔案系統?
若是,請移至如何鏡像無法卸載的 Root (/) 以外的檔案系統。
如果不是,請繼續至步驟 11。
確定要對使用者定義的檔案系統進行鏡像?
如果是,請至如何鏡像無法卸載的檔案系統。
如果不是,請至 如何建立磁碟組 以建立磁碟組。
下列範例顯示建立的 d101,是由分割區 c0t0d0s3 上的子鏡像 d111 和分割區 c2t2d0s3 上的子鏡像 d121所組成。 /global/.devices/node@1 的 /etc/vfstab 檔案項目會更新為使用鏡像名稱 d101。 磁碟 c2t2d0 是多埠連接的磁碟,所以啟用 localonly 屬性。
(Create the mirror) # metainit -f d111 1 1 c0t0d0s3 d111: Concat/Stripe is setup # metainit d121 1 1 c2t2d0s3 d121: Concat/Stripe is setup # metainit d101 -m d111 d101: Mirror is setup # metattach d101 d121 d101: Submirror d121 is attached (Edit the /etc/vfstab file) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/d101 /dev/md/rdsk/d101 /global/.devices/node@1 ufs 2 no global (View the sync status) # metastat d101 d101: Mirror Submirror 0: d111 State: Okay Submirror 1: d121 State: Resyncing Resync in progress: 15 % done … (Identify the device-ID name of the mirrored disk's raw-disk device group) # scdidadm -L … 1 phys-schost-3:/dev/rdsk/c2t2d0 /dev/did/rdsk/d2 (Display the device-group node list) # scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … (Remove phys-schost-3 from the node list) # scconf -r -D name=dsk/d2,nodelist=phys-schost-3 (Enable the localonly property) # scconf -c -D name=dsk/d2,localonly=true |
於一般系統使用期間,使用此程序鏡像無法卸載的 root (/) 以外的檔案系統,例如 /usr、/opt 或 swap。
成為叢集上某個節點的超級使用者。
將可卸載的檔案系統所在的片段放置於單一片段 (單向) 串接。
指定磁碟片段的實體磁碟名稱 (cNtXdYsZ)。
# metainit -f submirror1 1 1 diskslice |
建立第二個串接。
# metainit submirror2 1 1 submirror-diskslice |
建立只含一個子鏡像的單向鏡像。
# metainit mirror -m submirror1 |
此鏡像的複合裝置或容體名稱在叢集中不需要具有唯一性。
在每一個節點上,編輯您鏡像的所有可卸載檔案系統的 /etc/vfstab 檔案項目。
將 device to mount 和 device to fsck 兩欄中的名稱置換成鏡像名稱。
# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/mirror /dev/md/rdsk/mirror /filesystem ufs 2 no global |
從此節點中移出所有資源群組或裝置群組。
# scswitch -S -h from-node |
移動所有資源群組和裝置群組
指定要移出資源群組或裝置群組的節點名稱
重新啟動節點。
# shutdown -g0 -y -i6 |
連接第二個子鏡像至每個鏡像。
這個連接動作會啟動子鏡像的同步作業。
# metattach mirror submirror2 |
等待步驟 9 中開始的鏡像同步作業完成。
使用 metastat(1M) 指令檢視鏡像狀態並確認鏡像同步作業已經完成。
# metastat mirror |
用來鏡像可卸載檔案系統的磁碟是否實際連接到一個以上的節點 (多埠連接)?
如果不是,請繼續至步驟 12。
如果是,請執行下列步驟,以便為用於鏡像可卸載檔案系統的磁碟啟用原始磁碟裝置群組的 localonly 屬性。 如果某個節點的開機裝置連接至多個節點,您必須啟用 localonly 屬性,才可避免不小心將節點與其開機裝置隔離開。
必要時,使用 scdidadm -L 指令來顯示原始磁碟裝置群組的完整裝置 ID 路徑名稱。
在下列範例中,原始磁碟裝置群組名稱 dsk/d2 是輸出第三欄 (完整裝置 ID 路徑名稱) 的一部分。
# scdidadm -L … 1 phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 |
檢視原始磁碟裝置群組的節點清單。
輸出結果如下所示。
# scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … |
節點清單是否含有一個以上的節點名稱?
除了對其根磁碟進行鏡像的節點之外,將此原始磁碟裝置群組節點清單中的其他節點全部移除。
唯有已經進行根磁碟鏡像的節點才應該保留在節點清單內。
# scconf -r -D name=dsk/dN,nodelist=node |
指定原始磁碟裝置群組的叢集唯一名稱
指定要從節點清單移除的節點名稱
使用 scconf(1M) 指令來啟用 localonly 屬性。
啟用 localonly 屬性後,原始磁碟裝置群組將由節點清單中的節點專用。 當開機裝置連接到多個節點時,這樣做可避免不小心將節點與其開機裝置隔離開。
# scconf -c -D name=rawdisk-groupname,localonly=true |
指定原始磁碟裝置群組的名稱
關於 localonly 屬性的詳細資訊,請參閱 scconf_dg_rawdisk(1M) 線上援助頁。
確定要對使用者定義的檔案系統進行鏡像?
如果是,請至如何鏡像無法卸載的檔案系統。
如果不是,請至 如何建立磁碟組 以建立磁碟組。
下列範例顯示在節點 d1 phys‐schost‐1 建立鏡映,以便鏡映 /usr,這是位於 c0t0d0s1 上。 d1 鏡像包含分割區 c0t0d0s1 上的子鏡像 d11 和分割區 c2t2d0s1 上的 d21。 /usr 的 /etc/vfstab 檔案項目會更新為使用鏡像名稱 d1。 磁碟 c2t2d0 是多埠連接的磁碟,所以啟用 localonly 屬性。
(Create the mirror) # metainit -f d11 1 1 c0t0d0s1 d11: Concat/Stripe is setup # metainit d21 1 1 c2t2d0s1 d21: Concat/Stripe is setup # metainit d1 -m d11 d1: Mirror is setup (Edit the /etc/vfstab file) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/d1 /dev/md/rdsk/d1 /usr ufs 2 no global (Move resource groups and device groups from phys-schost-1) # scswitch -S -h phys-schost-1 (Reboot the node) # shutdown -g0 -y -i6 (Attach the second submirror) # metattach d1 d21 d1: Submirror d21 is attached (View the sync status) # metastat d1 d1: Mirror Submirror 0: d11 State: Okay Submirror 1: d21 State: Resyncing Resync in progress: 15 % done … (Identify the device-ID name of the mirrored disk's raw-disk device group) # scdidadm -L … 1 phys-schost-3:/dev/rdsk/c2t2d0 /dev/did/rdsk/d2 (Display the device-group node list) # scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … (Remove phys-schost-3 from the node list) # scconf -r -D name=dsk/d2,nodelist=phys-schost-3 (Enable the localonly property) # scconf -c -D name=dsk/d2,localonly=true |
使用此程序來鏡像無法卸載的使用者定義檔案系統。 在此程序中,節點不需要重新啟動。
成為叢集上某個節點的超級使用者。
卸載要鏡像的檔案系統。
確保該檔案系統上沒有執行任何程序。
# umount /mount-point |
請參閱 umount(1M) 線上援助頁和System Administration Guide: Basic Administration中的「Mounting and Unmounting File Systems」,以取得詳細資訊。
將可卸載之使用者定義檔案系統所在的片段放置於單一片段 (單向) 串接。
指定磁碟片段的實體磁碟名稱 (cNtXdYsZ)。
# metainit -f submirror1 1 1 diskslice |
建立第二個串接。
# metainit submirror2 1 1 submirror-diskslice |
建立只含一個子鏡像的單向鏡像。
# metainit mirror -m submirror1 |
此鏡像的複合裝置或容體名稱在叢集中不需要具有唯一性。
在每一個節點上,編輯您鏡像的每一個檔案系統的 /etc/vfstab 檔案項目。
使用鏡像名稱替代 device to mount 與 device to fsck 欄中的名稱。
# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/mirror /dev/md/rdsk/mirror /filesystem ufs 2 no global |
連接第二子鏡像至鏡像。
這個連接動作會啟動子鏡像的同步作業。
# metattach mirror submirror2 |
等待步驟 8 中開始的鏡像同步作業完成。
使用 metastat(1M) 指令檢視鏡像狀態。
# metastat mirror |
用來鏡像使用者定義檔案系統的磁碟是否實際連接到一個以上的節點 (多埠連接)?
如果不是,請繼續至步驟 12。
如果是,請執行下列步驟,以便為用於鏡像使用者定義檔案系統的磁碟啟用原始磁碟裝置群組的 localonly 屬性。 如果某個節點的開機裝置連接至多個節點,您必須啟用 localonly 屬性,以避免不小心將節點與其開機裝置隔離開。
必要時,請使用 scdidadm -L 指令來顯示原始磁碟裝置群組的完整裝置 ID 路徑名稱。
在下列範例中,原始磁碟裝置群組名稱 dsk/d4 是輸出第三欄 (完整裝置 ID 路徑名稱) 的一部分。
# scdidadm -L … 1 phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 |
檢視原始磁碟裝置群組的節點清單。
輸出結果如下所示。
# scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … |
節點清單是否含有一個以上的節點名稱?
除了對其根磁碟進行鏡像的節點之外,將此原始磁碟裝置群組節點清單中的其他節點全部移除。
唯有已經進行根磁碟鏡像的節點才應該保留在節點清單內。
# scconf -r -D name=dsk/dN,nodelist=node |
指定原始磁碟裝置群組的叢集唯一名稱
指定要從節點清單移除的節點名稱
使用 scconf(1M) 指令來啟用 localonly 屬性。
當localonly 屬性啟用後,原始磁碟裝置群組便專門供其節點清單內的節點使用。 當開機裝置連接到多個節點時,這樣做可避免不小心將節點與其開機裝置隔離開。
# scconf -c -D name=rawdisk-groupname,localonly=true |
指定原始磁碟裝置群組的名稱
關於 localonly 屬性的詳細資訊,請參閱 scconf_dg_rawdisk(1M) 線上援助頁。
裝載鏡像的檔案系統。
# mount /mount-point |
請參閱 mount(1M) 線上援助頁和System Administration Guide: Basic Administration中的「Mounting and Unmounting File Systems」,以取得詳細資訊。
建立磁碟組。
移至如何建立磁碟組 。
下列範例顯示 d4 的建立,以鏡像 /export,這是位於 c0t0d0s4。 d4 鏡像是由分割區 c0t0d0s4 上的子鏡像 d14 和分割區 c2t2d0s4 上的子鏡像 d24 所組成。 /export 的 /etc/vfstab 檔案項目會更新為使用鏡像名稱 d4。 磁碟 c2t2d0 是多埠連接的磁碟,所以啟用 localonly 屬性。
(Unmount the file system) # umount /export (Create the mirror) # metainit -f d14 1 1 c0t0d0s4 d14: Concat/Stripe is setup # metainit d24 1 1 c2t2d0s4 d24: Concat/Stripe is setup # metainit d4 -m d14 d4: Mirror is setup (Edit the /etc/vfstab file) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/d4 /dev/md/rdsk/d4 /export ufs 2 no global (Attach the second submirror) # metattach d4 d24 d4: Submirror d24 is attached (View the sync status) # metastat d4 d4: Mirror Submirror 0: d14 State: Okay Submirror 1: d24 State: Resyncing Resync in progress: 15 % done … (Identify the device-ID name of the mirrored disk's raw-disk device group) # scdidadm -L … 1 phys-schost-3:/dev/rdsk/c2t2d0 /dev/did/rdsk/d2 (Display the device-group node list) # scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … (Remove phys-schost-3 from the node list) # scconf -r -D name=dsk/d2,nodelist=phys-schost-3 (Enable the localonly property) # scconf -c -D name=dsk/d2,localonly=true (Mount the file system) # mount /export |
對您建立的每個磁碟組執行此程序。
如果您已使用 SunPlex Manager 安裝了 Solstice DiskSuite,則可能已經存在一個到三個磁碟組。 請參閱使用 SunPlex Manager 安裝 Sun Cluster 軟體 ,以取得關於由 SunPlex Manager 建立的 metaset 的資訊。
是否要在叢集內建立個數超過三個的磁碟組?
確定 md_nsets 變數值設定得夠高,以符合您要在叢集中建立的磁碟組總數。
在叢集的任何節點上,檢查 md_nsets 變數值,該變數值位於 /kernel/drv/md.conf 檔中。
如果叢集中的磁碟組總數大於現有的 md_nsets 負值,請增加每個節點的 md_nsets 值,使其達到所需的值。
許可的最大磁碟組數目比 md_nsets 的配置值小一。 md_nsets 的最大值為 32。
確定 /kernel/drv/md.conf 檔在叢集的每個節點上都相同。
未遵循此準則會導致嚴重的 Solstice DiskSuite/Solaris Volume Manager 錯誤並可能會有資料流失。
在某一個節點上關閉叢集。
# scshutdown -g0 -y |
重新啟動叢集的每個節點。
ok> boot |
在叢集的每一個節點上執行 devfsadm(1M) 指令。
您可以在叢集的所有節點上同時執行此指令。
從叢集的某個節點處,執行 scgdevs(1M) 指令以更新整體裝置名稱空間。
在每個節點上,確認 scgdevs 指令已於您嘗試建立任意磁碟組之前完成了處理。
scgdevs 指令在所有節點上自行遠端呼叫,即使只從一個節點執行指令也是如此。 若要判斷 scgdevs 指令是否已經完成作業,請在叢集的每個節點上執行下列指令。
% ps -ef | grep scgdevs |
確定您要建立的磁碟組符合以下任何一項條件。
如果磁碟組的配置正好是兩個磁碟串聯,磁碟組必須連接至兩個節點,並且使用兩個仲裁者主機,而這兩個主機必須與磁碟組使用的兩個主機相同。 請參閱配置雙串聯仲裁者 ,以取得有關如何配置雙串聯仲裁者的詳細資訊。
如果磁碟組是用超過兩個的磁碟串聯配置的,請確定對於任何兩個磁碟串聯 S1 與 S2,這些串聯上的磁碟機總數均超過第三個串聯 S3 上的磁碟機數目。以公式說明,需求為計數 (S1) + 計數 (S2) > 計數 (S3)。
確定本機狀態資料庫複本是否存在。
相關說明,請參閱 如何建立狀態資料庫複本 。
成為叢集節點上的超級使用者來主控磁碟組。
建立磁碟組。
以下指令會建立磁碟組,並將磁碟組註冊為 Sun Cluster 磁碟裝置群組。
# metaset -s setname -a -h node1 node2 |
指定磁碟組名稱
新增 (建立) 磁碟組
指定主控磁碟組的主要節點名稱
指定主控磁碟組的次要節點名稱
當您執行 metaset 指令來配置叢集上的 Solstice DiskSuite/Solaris Volume Manager 裝置群組時,依預設指令會指定一個次要節點。 您可以在建立裝置群組之後,使用 scsetup(1M) 公用程式來變更裝置群組中所需的次要節點數目。 請參閱Sun Cluster 系統管理指南 (適用於 Solaris 作業系統)中的「管理磁碟裝置群組」,以取得關於如何變更 numsecondaries 屬性的詳細資訊。
確認新磁碟組的狀態。
# metaset -s setname |
在磁碟組中新增磁碟機。
移至在磁碟組中新增磁碟機 。
下列指令會利用指定為潛在主要節點的節點 phys-schost-1 和 phys-schost-2,建立兩個磁碟組 dg-schost-1 和 dg-schost-2。
# metaset -s dg-schost-1 -a -h phys-schost-1 phys-schost-2 # metaset -s dg-schost-2 -a -h phys-schost-1 phys-schost-2 |
在磁碟組中新增磁碟機時,Solstice DiskSuite/Solaris Volume Manager 會以下列方式重新分割磁碟機,使得磁碟組的狀態資料庫可以放在磁碟機上。
每個磁碟機都會在片段 7 上保留一小部分,供 Solstice DiskSuite/Solaris Volume Manager 軟體使用。 每個磁碟機的剩餘空間會放置於片段 0。
只有當片段 7 未正確配置時,在磁碟組中新增磁碟機才會重新分割磁碟機。
重新分割時會使磁碟上現存的資料遺失。
如果片段 7 是從磁柱 0 開始,且磁碟機分割區足以容納狀態資料庫複本,則磁碟就不會重新分割。
成為節點上的超級使用者。
確定磁碟組已建立。
相關說明,請參閱 如何建立磁碟組 。
列出 DID 對應。
# scdidadm -L |
選擇主控或潛在主控磁碟組的叢集節點所共用的磁碟機。
在磁碟組中新增磁碟機時,請使用完整裝置 ID 路徑名稱。
輸出的第一欄是 DID 實例編號,第二欄是完整實體路徑名稱,第三欄是完整裝置 ID 路徑名稱 (虛擬路徑)。 共用磁碟機上有多個具有相同 DID 實例編號的項目。
在下列範例中,DID 實例編號 2 的項目,指出磁碟機是由 phys-schost-1 和 phys-schost-2 所共用,並且完整裝置 ID 路徑名稱為 /dev/did/rdsk/d2。
1 phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 2 phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 3 phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 3 phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 … |
取得磁碟組的所有權。
# metaset -s setname -t |
指定磁碟組名稱
取得磁碟組的所有權
在磁碟組中新增磁碟機。
使用完整的裝置 ID 路徑名稱。
# metaset -s setname -a drivename |
在磁碟組新增磁碟機
共用磁碟機的完整裝置 ID 路徑名稱
在磁碟組中新增磁碟機時,請勿使用低階裝置名稱 (cNtXdY)。 因為低階裝置名稱是本機名稱,在叢集中並非唯一,使用此名稱會使 metaset 無法切換。
確認磁碟組與磁碟機的狀態。
# metaset -s setname |
確定要將磁碟機重新分割,以便在複合裝置或容體中使用?
如果是,請至 如何重新分割磁碟組中的磁碟機 。
若否,請移至如何建立 md.tab 檔 ,以使用 md.tab 檔定義複合裝置或容體。
metaset 指令會將磁碟機 /dev/did/rdsk/d1 與 /dev/did/rdsk/d2 新增至磁碟組 dg-schost-1。
# metaset -s dg-schost-1 -a /dev/did/rdsk/d1 /dev/did/rdsk/d2 |
metaset(1M) 指令會重新分割磁碟組中的磁碟機,以便保留每個磁碟機的一小部分在片段 7 中,供 Solstice DiskSuite/Solaris Volume Manager 軟體使用。 每個磁碟機的剩餘空間會放置在片段 0。為了更有效率地使用磁碟機,請使用此程序來修改磁碟佈局。 如果您將空間分配給片段 1 到 6,則您可以在設定 Solstice DiskSuite 複合裝置或 Solaris Volume Manager 容體時使用這些片段。
成為叢集節點的超級使用者。
使用 format 指令來變更磁碟組中每一個磁碟機的磁碟分割區。
當您重新分割磁碟機時,必須滿足以下條件,以防止 metaset(1M) 指令重新分割磁碟機。
建立片段 7,使其在磁柱 0 上開始,其大小足以容納狀態資料庫副本 (大約 2 MB)。
將片段 7 中的 Flag 欄位設定成 wu (讀寫、可卸載)。 請勿將它設成唯讀。
不要讓片段 7 與磁碟上的其他片段重疊。
請參閱 format(1M) 線上援助頁,以取得詳細資訊。
使用 md.tab 檔定義複合裝置或容體。
移至如何建立 md.tab 檔 。
在叢集的每一個節點建立 /etc/lvm/md.tab 檔。 使用 md.tab 檔案,為您建立的磁碟組定義 Solstice DiskSuite 元式裝置或 Solaris Volume Manager 容體。
如果使用本機元式裝置或容體,請確定本機元式裝置或容體的名稱與形成磁碟組的裝置 ID 名稱不同。 例如,如果在磁碟組中使用裝置 ID 名稱 /dev/did/dsk/d3,則不要將該名稱 /dev/md/dsk/d3 用於本機複合裝置或容體。 此條件不適用於共用複合裝置或容體,因為共用複合裝置或容體採用的命名慣例為 /dev/md/setname/{r}dsk/d#。
若要避免叢集環境中本機複合裝置或容體之間可能造成的困擾,請使用讓每一個本機複合裝置或容體名稱在整個叢集中為唯一名稱的命名機制。 例如,節點 1 使用 d100-d199 的名稱,節點 2 則使用 d200-d299 的名稱。
成為叢集節點的超級使用者。
建立 md.tab 檔時,請列出 DID 對應以作為參考。
在 md.tab 檔中使用完整裝置 ID 路徑名稱,以取代低階裝置名稱 (cNtXdY)。
# scdidadm -L |
在下列範例中,輸出的第一欄是 DID 實例編號,第二欄是完整實體路徑名稱,第三欄則是完整裝置 ID 路徑名稱 (虛擬路徑)。
1 phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 2 phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 3 phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 3 phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 … |
建立 /etc/lvm/md.tab 檔,並使用您偏好的文字編輯式手動編輯此檔案。
請參閱 Solstice DiskSuite/Solaris Volume Manager 說明文件以及 md.tab(4) 線上援助頁,以取得關於如何建立 md.tab 檔案的詳細資訊。
如果在將用於子鏡像的磁碟機上具有現有資料,則必須先備份資料,然後再設定元式裝置或容體。 然後將資料回復至鏡像。
啟動 md.tab 檔案中定義的複合裝置或容體。
移至如何啟動複合裝置或容體 。
下列範例 md.tab 檔定義了名為 dg-schost-1 的磁碟組。 md.tab 檔案中各行的順序並不重要。
dg-schost-1/d0 -m dg-schost-1/d10 dg-schost-1/d20 dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0 dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0 |
下面範例使用 Solstice DiskSuite 的專用詞彙。 針對 Solaris Volume Manager,異動複合裝置改稱為異動容體,複合裝置則改稱為容體。 否則下列處理程序對兩個容體管理程式均有效。
此 md.tab 檔案範例結構如下。
第一行將裝置 d0 定義為複合裝置 d10 與 d20 的鏡像。 -m 表示該裝置為鏡像裝置。
dg-schost-1/d0 -m dg-schost-1/d0 dg-schost-1/d20 |
第二行將複合裝置 d10 (d0 的第一個子鏡像) 定義為單向條塊。
dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0 |
第三行將複合裝置 d20 (d0 的第二個子鏡像) 定義為單向條塊。
dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0 |
執行此程序,以啟動在 md.tab 檔中定義的 Solstice DiskSuite 元式裝置或 Solaris Volume Manager 容體。
成為叢集節點的超級使用者。
確定 md.tab 檔位於 /etc/lvm 目錄中。
確定對於執行指令的節點上的磁碟組,您擁有所有權。
取得磁碟組的所有權。
# metaset -s setname -t |
指定磁碟組名稱
取得磁碟組的所有權
啟動在 md.tab 檔中定義的磁碟組複合裝置或容體。
# metainit -s setname -a |
啟動 md.tab 檔案中的所有複合裝置
為每個主控裝置和記錄裝置,連接第二個子鏡像 (submirror2)。
當 md.tab 檔案中的複合裝置或容體啟動時,只有主控裝置和記錄裝置的第一個子鏡像 (submirror1) 是已經連接的,所以 submirror2 必須以手動方式連接。
# metattach mirror submirror2 |
必要時,請從連接磁碟機的另一個節點來執行 metainit(1M) 指令。 對叢集配對拓撲而言,此步驟是必要的,但並非全部節點均可在拓撲上的磁碟機存取資料。
檢查複合裝置或容體的狀態。
# metastat -s setname |
請參閱 metastat(1M) 線上援助頁,以取得詳細資訊。
叢集內是否有任何磁碟組設定成只有兩個磁碟外殼與兩個節點?
如果有,則這些磁碟組需要雙串聯仲裁者。 請移至配置雙串聯仲裁者 增加仲裁者主機。
如果不是,請跳到 如何新增叢集檔案系統 建立叢集檔案系統。
在下列範例中,會啟動針對磁碟組 dg-schost-1 在 md.tab 檔中定義的所有複合裝置。 接著主控裝置 >dg-schost-1/d1 與記錄裝置 dg-schost-1/d4 的第二個子鏡像也會啟動。
# metainit -s dg-schost-1 -a # metattach dg-schost-1/d1 dg-schost-1/d3 # metattach dg-schost-1/d4 dg-schost-1/d6 |
雙串聯仲裁者或仲裁者主機,是儲存仲裁者資料的叢集節點。 仲裁者資料提供有關其他仲裁者位置的資訊,並包含確定計數,此計數與儲存於資料庫複本中的確定計數相同。 此確定計數是用來確認仲裁者資料與資料庫複本中的資料是否同步。
正好以兩個磁碟串聯和兩個叢集節點配置的所有 Solstice DiskSuite/Solaris Volume Manager 磁碟組都需要雙串聯仲裁者。 磁碟串聯由磁碟附件、其實體磁碟機、附件到節點的電纜以及介面配接卡組成。 使用仲裁者,可在雙串聯配置中單一串聯故障時,使 Sun Cluster 軟體確定保有最新的資料。 下列規則適用於使用仲裁者的雙串聯配置。
必須將磁碟組配置為只有兩個仲裁者主機。 這兩個仲裁者主機必須為用於磁碟組的兩個相同的叢集節點。
磁碟組不能有超過兩個的仲裁者主機。
對於不是兩個串聯和兩個主機的磁碟組,不能配置仲裁者。
在此,整個叢集並不一定要剛好具有兩個節點。 但有兩個磁碟串聯的磁碟組,必須正好連接至兩個節點。 在此規則下,允許 N+1 叢集和許多其他拓撲架構。
如果您的配置需要雙串聯仲裁者,請執行此程序。
成為目前主控欲新增仲裁者主機之磁碟組節點的超級使用者。
執行 metaset(1M) 指令來新增每一個節點與磁碟組的連接,以成為該磁碟組的仲裁者主機。
# metaset -s setname -a -m mediator-host-list |
指定磁碟組名稱
新增至磁碟組
指定要新增成為磁碟組仲裁者主機的節點名稱
請參閱 mediator(7D) 線上援助頁,以取得關於 metaset 指令的仲裁者專用選項的詳細資訊。
檢查仲裁者資料的狀態。
請至 如何檢查仲裁者資料的狀態 。
下列範例新增節點 phys-schost-1 與 phys-schost-2 來做為磁碟組 dg‐schost‐1 的仲裁者主機。 兩個指令都是從節點 phys-schost-1 執行。
# metaset -s dg-schost-1 -a -m phys-schost-1 # metaset -s dg-schost-1 -a -m phys-schost-2 |
依照如何新增仲裁者主機中描述的方法新增仲裁者主機。
執行 medstat 指令。
# medstat -s setname |
指定磁碟組名稱
請參閱 medstat(1M) 線上援助頁,以取得詳細資訊。
狀態欄中的值是不是 Bad?
如果是的話,請跳到如何修復錯誤的仲裁者資料 修復受影響的仲裁者主機。
如果不是,請跳到 如何新增叢集檔案系統 建立叢集檔案系統。
執行此程序來修復錯誤的仲裁者資料。
依照如何檢查仲裁者資料的狀態 中描述的程序,找出含有錯誤仲裁者資料的所有仲裁者主機。
成為擁有受影響磁碟群組之節點的超級使用者。
將所有受影響磁碟組中含有錯誤仲裁者資料的仲裁者主機全部移除。
# metaset -s setname -d -m mediator-host-list |
指定磁碟組名稱
從磁碟組刪除
指定要移除為磁碟組仲裁者主機的節點名稱
復原您在步驟 3 中移除的每個仲裁者主機。
# metaset -s setname -a -m mediator-host-list |
新增至磁碟組
指定要新增成為磁碟組仲裁者主機的節點名稱
請參閱 mediator(7D) 線上援助頁,以取得關於 metaset 指令的仲裁者專用選項的詳細資訊。
建立叢集檔案系統。
請至如何新增叢集檔案系統 。