Sun Cluster 3.0 系統管理手冊

8.3.2 如何復原 root(/)檔案系統(Solstice DiskSuite)

請使用這個程序將將 root(/)檔案系統復原到新磁碟,例如在更換損壞的根磁碟的情況。要復原的節點應該不在啟動狀態。請先確定叢集執行沒任何錯誤再執行復原程序。


註解 -

由於您必須將新磁碟的分割區製作成和失效磁碟完全相同的格式,請在開啟本程序之前先識別分割機制,同時適當地重新建立檔案系統。


  1. 在您要復原之節點以外的節點上成為超級使用者(superuser)。

  2. 使用 metaset(1M) 指令,從所有中繼組移除復原之節點的主機名稱。請在中繼組,而不是您要移除的節點,執行這個指令。


    # metaset -s setname -f -d -h node
    
    -s setname

    指定磁碟組名稱。

    -f

    強迫。

    -d

    從磁碟組刪除。

    -h node

    指定要從磁碟組刪除之節點的名稱。

  3. 置換節點上要復原 root(/)檔案系統的失效磁碟。

    請參閱附隨伺服器之文件中敘述的磁碟置換程序。

  4. 啟動正在復原的啟動。

    • 如果您使用 Solaris CD-ROM,請執行下列指令:


      ok boot cdrom -s
      
    • 如果您使用 JumpStartTM 伺服器時,請執行下列指令:


      ok boot net -s
      
  5. 使用 format(1M) 指令,在根磁碟上建立所有的分割區與交換。

    重新建立失效磁碟的原始分割機制。

  6. 使用 newfs(1M) 指令,建立適當的 root(/)檔案系統以及其他檔案系統。

    重新建立失效磁碟的原始檔案系統。


    註解 -

    請務必要建立 /global/.devices/node@nodeid 檔案系統。


  7. 將 root(/)檔案系統裝載到暫時裝載點。


    # mount device temp-mount-point
    
  8. 使用下列指令來復原 root(/)檔案系統。


    # cd temp-mount-point
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mount-point
    # fsck raw-disk-device
    

    檔案系統現在完成復原。

  9. 在新磁碟安裝新的啟動區塊。


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    
  10. 將節點重新開機為單用戶模式。


    # reboot -- "-s"
    
  11. 使用 scdidadm 指令置換磁碟 ID。


    # scdidadm -R rootdisk
    
  12. 使用 metadb(1M) 指令重新建立狀態資料庫抄本。


    # metadb -c copies -af raw-disk-device
    
    -c copies

    指定要建立的抄本數目。

    -f raw-disk-device

    要在其上建立抄本的原始裝置。

    -a

    新增抄本。

  13. 將節點重新啟動為叢集模式。

    1. 啟動重新開機。


      # reboot
      

      啟動期間您可能會看到錯誤或警告訊息,結尾部份還附有以下指示:


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):
    2. 按 CTRL-d 重新開機為多用戶模式。

  14. 在復原的節點以外的叢集節點上,使用 metaset(1M) 指令將復原的節點新增到所有中繼組。


    phys-schost-2# metaset -s setname -a -h node
    
    -a

    建立並新增主機到磁碟組。

    節點重新啟動為叢集模式。叢集已經備妥可以使用。

8.3.2.1 範例-復原 root(/)檔案系統(Solstice DiskSuite)

以下範例顯示 root(/)檔案系統從磁帶裝置 /dev/rmt/0 復原到節點 phys-schost-1metaset 指令是從 phys-schost-2 叢集中的另一個節點執行,先移除備份節點 phys-schost-1 稍後再將它加回磁碟組 schost-1。其他所有指令都是從 phys-schost-1 執行。新的啟動區塊將建立在 /dev/rdsk/c0t0d0s0,三個狀態資料庫抄本則是重新建立在 /dev/rdsk/c0t0d0s4


[Become superuser on a cluster node other than
the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to recreate partitions and file systems.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Replace the disk ID:]
# scdidadm -R /dev/dsk/c0t0d0
[Recreate state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Press CTL-d to boot into multiuser mode.
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1