Sun Cluster 3.0 12/01 系統管理手冊

8.3.2 如何復原 root (/) 檔案系統 (Solstice DiskSuite)

請使用這個程序將將 root (/) 檔案系統復原到新磁碟,例如在更換損壞的根磁碟之後。要復原的節點不應該在啟動狀態。 請先確定叢集執行時沒有任何錯誤,再執行復原程序。


註解 -

由於您必須將新磁碟分割成和故障磁碟相同的格式,請在進行本程序之前先識別分割區機制,同時適當地重新建立檔案系統。


  1. 在可存取 metaset 的叢集節點上,而不是您要復原的節點上,成為超級使用者。

  2. 從所有 metaset 中移除已復原的節點主機名稱。

    從 metaset 中的節點執行這個指令,而不是從您正在移除的節點執行。


    # metaset -s setname -f -d -h nodelist
    

    -s setname

    指定磁碟組名稱。

    -f

    強制。

    -d

    從磁碟組刪除。

    -h nodelist

    指定要從磁碟組刪除之節點的名稱。

  3. 置換節點上要復原 root (/) 檔案系統的故障磁碟。

    請參閱伺服器隨附文件中敘述的磁碟置換程序。

  4. 啟動正在復原的節點。

    • 如果您使用 Solaris CD-ROM,請執行下列指令:


      ok boot cdrom -s
      

    • 如果您使用 JumpStartTM 伺服器,請執行下列指令:


      ok boot net -s
      

  5. 使用 format(1M) 指令,在根磁碟上建立所有的分割區與交換區。

    重新建立故障磁碟的原始分割機制。

  6. 建立適當的 root (/) 檔案系統和其它的檔案系統 (使用 newfs(1M) 指令)。

    重新建立故障磁碟的原始檔案系統。


    註解 -

    請務必要建立 /global/.devices/node@nodeid 檔案系統。


  7. 將 root(/)檔案系統裝載到暫時裝載點。


    # mount device temp-mountpoint
    

  8. 使用下列指令來復原根 (/) 檔案系統。


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    

    檔案系統現在完成復原。

  9. 在新磁碟上安裝新的啟動區塊。


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk
     raw-disk-device
    

  10. 將節點重新啟動為單使用者模式。


    # reboot -- "-s"
    

  11. 使用 scdidadm 指令來置換磁碟 ID。


    # scdidadm -R rootdisk
    

  12. 使用 metadb(1M) 指令重新建立狀態資料庫複本。


    # metadb -c copies -af raw-disk-device
    

    -c copies

    指定要建立的複本數目。

    -f raw-disk-device

    要在其上建立複本的原始磁碟裝置。

    -a

    新增複本。

  13. 將節點重新啟動為叢集模式。

    1. 重新啟動。


      # reboot
      

      啟動期間您可能會看到錯誤或警告訊息,結尾部份附有以下指示:


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. 按 CTRL-d 重新啟動為多使用者模式。

  14. 從復原的節點以外的叢集節點,使用 metaset(1M) 指令將復原的節點新增到所有 metaset。


    phys-schost-2# metaset -s setname -a -h nodelist
    

    -a

    建立並新增主機到磁碟組。

    節點重新啟動為叢集模式。 叢集已經備妥可以使用。

8.3.2.1 範例-復原 root (/) 檔案系統 (Solstice DiskSuite)

以下範例顯示 root (/) 檔案系統復原至節點 phys-schost-1 ( 從磁帶裝置 /dev/rmt/0)。metaset 指令是從叢集 phys-schost-2 的另一個節點執行,以便先移除而後將 phys-schost-1 節點重新加入 schost-1 磁碟組中。 所有其它指令是由 phys-schost-1 執行。 在 /dev/rdsk/c0t0d0s0 上建立新的啟動區塊,並在 /dev/rdsk/c0t0d0s4 上重新建立三個狀態資料庫的複本。


[Become superuser on a cluster node other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to recreate partitions and file systems.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Replace the disk ID:]
# scdidadm -R /dev/dsk/c0t0d0
[Recreate state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Press CTL-d to boot into multiuser mode.
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1