Sun Cluster 3.0 U1 系統管理手冊

8.3.2 如何復原根 (/)檔案系統 (Solstice DiskSuite)

請使用這個程序將將根 (/) 檔案系統復原到新磁碟,例如更換損壞的根磁碟的情況。要復原的節點應該不在啟動狀態。請先確定叢集執行時沒任何錯誤,再執行復原程序。


註解 -

由於您必須將新磁碟的分割區製作成和故障磁碟完全相同的格式,請在開始本程序之前先識別分割機制,同時適當地重新建立檔案系統。


  1. 在可存取 metaset 的叢集節點上,而不是您要復原的節點上,成為超級使用者。

  2. 從所有 metaset 中移除已回復的節點主機名稱。

    請從 metaset 中另一個不是您要移除的節點上執行此指令。


    # metaset -s setname -f -d -h nodelist
    

    -ssetname

    指定磁碟組名稱。

    -f

    強迫。

    -d

    從磁碟組刪除。

    -h nodelist

    指定要從磁碟組刪除之節點的名稱。

  3. 置換節點上要復原根 (/) 檔案系統的故障磁碟。

    請參閱隨附伺服器之文件中敘述的磁碟置換程序。

  4. 啟動正在復原的節點。

    • 如果您使用 Solaris CD-ROM,請執行下列指令:


      ok boot cdrom -s
      

    • 如果您使用 JumpStartTM 伺服器時,請執行下列指令:


      ok boot net -s
      

  5. 使用 format(1M) 指令,在根磁碟上建立所有的分割區與交換。

    重新建立故障磁碟的原始分割機制。

  6. 使用 newfs(1M) 指令,建立適當的根 (/) 檔案系統以及其他檔案系統。

    重新建立故障磁碟的原始檔案系統。


    註解 -

    請務必要建立 /global/.devices/node@nodeid 檔案系統。


  7. 將根 (/) 檔案系統裝載到暫時裝載點。


    # mount device temp-mount-point
    

  8. 使用下列指令來復原根 (/) 檔案系統。


    # cd temp-mount-point
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mount-point # fsck raw-disk-device
    

    檔案系統現在完成復原。

  9. 在新磁碟上安裝新的啟動區塊。


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    

  10. 將節點重新開機為單使用者模式。


    # reboot -- '-s'
    

  11. 使用 scdidadm 指令置換磁碟 ID。


    # scdidadm -R rootdisk
    

  12. 使用 metadb(1M) 指令重新建立狀態資料庫複本。


    # metadb -c copies -af raw-disk-device
    

    -c copies

    指定要建立的複本數目。

    -f raw-disk-device

    要在其上建立複本的原始裝置。

    -a

    新增複本。

  13. 將節點重新啟動為叢集模式。

    1. 啟動重新開機。


      # reboot
      

      啟動期間您可能會看到錯誤或警告訊息,結尾部份還附有以下指示:


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. 按 CTRL-d 重新開機為多使用者模式。

  14. 在復原的節點以外的叢集節點上,使用 metaset(1M) 指令將復原的節點新增至所有 metaset。


    phys-schost-2# metaset -s setname -a -h nodelist
    

    -a

    建立並新增主機到磁碟組。

    節點重新啟動為叢集模式。叢集已經備妥可以使用。

8.3.2.1 範例 - 復原根 (/) 檔案系統 (Solstice DiskSuite)

以下範例顯示密封根 (/) 檔案系統從磁帶裝置 /dev/rmt/0 復原至節點 phys-schost-1metaset 指令是由叢集 phys-schost-2 另一節點執行,以便先移除而後將 phys-schost-1 節點重新加入 schost-1 磁碟組中。其他指令是由phys-schost-1執行。/dev/rdsk/c0t0d0s0 上生成了一個新的啟動區塊,/dev/rdsk/c0t0d0s4上重新生成了三個狀態資料庫復本。


[Become superuser on a cluster node other than the node
to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to recreate partitions and file systems.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Replace the disk ID:]
# scdidadm -R /dev/dsk/c0t0d0
[Recreate state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Press CTL-d to boot into multiuser mode.
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1