Sun Cluster 3.0 U1 系統管理手冊

8.3 復原叢集檔案

表 8-2 對應作業:復原叢集檔案

作業 

相關資訊,請參閱 ... 

對於 Solstice DiskSuite,依 Solaris 復原程序以互動方式復原檔案。 

"8.3.1 如何以互動方式復原個別的檔案 (Solstice DiskSuite)"

對於 Solstice DiskSuite,請復原根 (/) 檔案系統。

"8.3.2 如何復原根 (/)檔案系統 (Solstice DiskSuite)"

 

"8.3.3 如何復原複合裝置的根 (/)檔案系統 (Solstice DiskSuite)"

對 VERITAS Volume Manager,請復原非密封的根 (/) 檔案系統。 

"8.3.4 如何復原非密封的根 (/)檔案系統 (VERITAS Volume Manager)"

在 VERITAS Volume Manager,請復原密封的根 (/) 檔案系統。 

"8.3.5 如何復原密封的根 (/)檔案系統 (VERITAS Volume Manager)"

8.3.1 如何以互動方式復原個別的檔案 (Solstice DiskSuite)

請使用這個程序來復原一個或多個個別的檔案。請先確定叢集執行時沒任何錯誤,再執行復原程序。

  1. 成為您要復原之叢集節點的超級使用者。

  2. 停止所有使用要儲存之檔案的資料服務。


    # scswitch -z -g resource-group -h ""
    

  3. 使用 ufsrestore 指令復原檔案。

8.3.2 如何復原根 (/)檔案系統 (Solstice DiskSuite)

請使用這個程序將將根 (/) 檔案系統復原到新磁碟,例如更換損壞的根磁碟的情況。要復原的節點應該不在啟動狀態。請先確定叢集執行時沒任何錯誤,再執行復原程序。


註解 -

由於您必須將新磁碟的分割區製作成和故障磁碟完全相同的格式,請在開始本程序之前先識別分割機制,同時適當地重新建立檔案系統。


  1. 在可存取 metaset 的叢集節點上,而不是您要復原的節點上,成為超級使用者。

  2. 從所有 metaset 中移除已回復的節點主機名稱。

    請從 metaset 中另一個不是您要移除的節點上執行此指令。


    # metaset -s setname -f -d -h nodelist
    

    -ssetname

    指定磁碟組名稱。

    -f

    強迫。

    -d

    從磁碟組刪除。

    -h nodelist

    指定要從磁碟組刪除之節點的名稱。

  3. 置換節點上要復原根 (/) 檔案系統的故障磁碟。

    請參閱隨附伺服器之文件中敘述的磁碟置換程序。

  4. 啟動正在復原的節點。

    • 如果您使用 Solaris CD-ROM,請執行下列指令:


      ok boot cdrom -s
      

    • 如果您使用 JumpStartTM 伺服器時,請執行下列指令:


      ok boot net -s
      

  5. 使用 format(1M) 指令,在根磁碟上建立所有的分割區與交換。

    重新建立故障磁碟的原始分割機制。

  6. 使用 newfs(1M) 指令,建立適當的根 (/) 檔案系統以及其他檔案系統。

    重新建立故障磁碟的原始檔案系統。


    註解 -

    請務必要建立 /global/.devices/node@nodeid 檔案系統。


  7. 將根 (/) 檔案系統裝載到暫時裝載點。


    # mount device temp-mount-point
    

  8. 使用下列指令來復原根 (/) 檔案系統。


    # cd temp-mount-point
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mount-point # fsck raw-disk-device
    

    檔案系統現在完成復原。

  9. 在新磁碟上安裝新的啟動區塊。


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    

  10. 將節點重新開機為單使用者模式。


    # reboot -- '-s'
    

  11. 使用 scdidadm 指令置換磁碟 ID。


    # scdidadm -R rootdisk
    

  12. 使用 metadb(1M) 指令重新建立狀態資料庫複本。


    # metadb -c copies -af raw-disk-device
    

    -c copies

    指定要建立的複本數目。

    -f raw-disk-device

    要在其上建立複本的原始裝置。

    -a

    新增複本。

  13. 將節點重新啟動為叢集模式。

    1. 啟動重新開機。


      # reboot
      

      啟動期間您可能會看到錯誤或警告訊息,結尾部份還附有以下指示:


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. 按 CTRL-d 重新開機為多使用者模式。

  14. 在復原的節點以外的叢集節點上,使用 metaset(1M) 指令將復原的節點新增至所有 metaset。


    phys-schost-2# metaset -s setname -a -h nodelist
    

    -a

    建立並新增主機到磁碟組。

    節點重新啟動為叢集模式。叢集已經備妥可以使用。

8.3.2.1 範例 - 復原根 (/) 檔案系統 (Solstice DiskSuite)

以下範例顯示密封根 (/) 檔案系統從磁帶裝置 /dev/rmt/0 復原至節點 phys-schost-1metaset 指令是由叢集 phys-schost-2 另一節點執行,以便先移除而後將 phys-schost-1 節點重新加入 schost-1 磁碟組中。其他指令是由phys-schost-1執行。/dev/rdsk/c0t0d0s0 上生成了一個新的啟動區塊,/dev/rdsk/c0t0d0s4上重新生成了三個狀態資料庫復本。


[Become superuser on a cluster node other than the node
to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to recreate partitions and file systems.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Replace the disk ID:]
# scdidadm -R /dev/dsk/c0t0d0
[Recreate state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Press CTL-d to boot into multiuser mode.
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

8.3.3 如何復原複合裝置的根 (/)檔案系統 (Solstice DiskSuite)

請使用這個程序來復原執行備份時在複合裝置上的根 (/) 檔案系統。並在根磁碟毀壞而換成新磁碟等的情況執行這個程序。要復原的節點應該不在啟動狀態。請先確定叢集執行時沒任何錯誤,再執行復原程序。


註解 -

由於您必須將新磁碟的分割區製作成和故障磁碟完全相同的格式,請在開始本程序之前先識別分割機制,同時適當地重新建立檔案系統。


  1. 在可存取 metaset 的叢集節點上,而不是您要復原的節點上,成為超級使用者。

  2. 從所有 metasets 中移除已復原的節點主機名稱。


    # metaset -s setname -f -d -h nodelist
    

    -s setname

    指定 metaset 名稱。

    -f

    強迫。

    -d

    從 metaset 刪除。

    -h nodelist

    指定要從 metaset 刪除之節點的名稱。

  3. 置換節點上要復原根 (/) 檔案系統的故障磁碟。

    請參閱隨附伺服器之文件中敘述的磁碟置換程序。

  4. 啟動正在復原的節點。

    • 如果您使用 Solaris CD-ROM,請執行下列指令:


      ok boot cdrom -s
      

    • 如果您使用 JumpStart 伺服器,請執行下列指令:


      ok boot net -s
      

  5. 使用 format(1M) 指令,在根磁碟上建立所有的分割區與交換。

    重新建立故障磁碟的原始分割機制。

  6. 使用 newfs(1M) 指令,適當建立根 (/) 檔案系統以及其他檔案系統。

    重新建立故障磁碟的原始檔案系統。


    註解 -

    請務必要建立 /global/.devices/node@nodeid 檔案系統。


  7. 將根 (/) 檔案系統裝載到暫時裝載點。


    # mount device temp-mount-point
    

  8. 使用下列指令來復原根 (/) 檔案系統。


    # cd  temp-mount-point
    # ufsrestore rvf dump-device
    # rm restoresymtable
    

  9. 在新磁碟上安裝新的啟動區塊。


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblkraw-disk-device
    

  10. 移除 /temp-mount-point/etc/system 檔中與 MDD root 資訊相關的行。


    * Begin MDD root info (do not edit)
    forceload: misc/md_trans
    forceload: misc/md_raid
    forceload: misc/md_mirror
    forceload: misc/md_hotspares
    forceload: misc/md_stripe
    forceload: drv/pcipsy
    forceload: drv/glm
    forceload: drv/sd
    rootdev:/pseudo/md@0:0,10,blk
    * End MDD root info (do not edit)

  11. 編輯 /temp-mount-point/etc/vfstab 檔,將作為複合裝置之一部份的根磁碟上每一個檔案系統的根註冊從複合裝置改成對應的一般片段。


    Example: 
    Change from - 
    /dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -
    
    Change to - 
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -

  12. 卸載暫時檔案系統,並檢查原始磁碟裝置。


    # cd /
    # umount  temp-mount-point
    # fsck raw-disk-device
    

  13. 將節點重新開機為單使用者模式。


    # reboot -- '-s'
    

  14. 使用 scdidadm 指令置換磁碟 ID。


    # scdidadm -R rootdisk
    

  15. 使用 metadb(1M) 指令重新建立狀態資料庫複本。


    # metadb -c copies -af raw-disk-device
    

    -c copies

    指定要建立的複本數目。

    -af raw-disk-device

    在指名的原始磁碟裝置上建立初始狀態資料庫複本。

  16. 將節點重新啟動為叢集模式。

    1. 啟動重新開機。


      # reboot
      

      啟動將會看到錯誤或警告訊息,結尾部份附有以下的指示:


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. 按 CTRL-d 重新開機為多使用者模式。

  17. 在復原的節點以外的叢集節點上,使用 metaset(1M) 指令將復原的節點新增至所有 metaset。


    phys-schost-2# metaset -s setname -a -h nodelist
    

    -a

    新增 (建立) metaset。

    依照 Solstice DiskSuite 說明文件,將 metadevice/mirror 設成 root (/)。

    節點重新啟動為叢集模式。叢集已經備妥可以使用。

8.3.3.1 範例 - 復原複合裝置上舊有的根 (/) 檔案系統 (Solstice DiskSuite)

以下範例顯示密封根 (/) 檔案系統從磁帶裝置 /dev/rmt/0 復原至節點 phys-schost-1metaset 指令是由叢集 phys-schost-2 另一節點執行,以便先移除而後將 phys-schost-1 節點重新加入 schost-1 metaset 中。所有其他指令是由 phys-schost-1 執行。在 /dev/rdsk/c0t0d0s0 上建立了新的啟動區塊,且在 /dev/rdsk/c0t0d0s4 上重新建立了三個狀態資料庫之複本。


[Become superuser on a cluster node with access to the metaset, 
other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to recreate partitions and file systems.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Remove the lines in /temp-mount-point/etc/system file for MDD root information:]
* Begin MDD root info (do not edit)
forceload: misc/md_trans
forceload: misc/md_raid
forceload: misc/md_mirror
forceload: misc/md_hotspares
forceload: misc/md_stripe
forceload: drv/pcipsy
forceload: drv/glm
forceload: drv/sd
rootdev:/pseudo/md@0:0,10,blk
* End MDD root info (do not edit)
[Edit the /temp-mount-point/etc/vfstab file]
Example: 
Change from - 
/dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -

Change to - 
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -
[Unmount the temporary file system and check the raw disk device:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Replace the disk ID:]
# scdidadm -R /dev/dsk/c0t0d0
[Recreate state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Type CTRL-d to boot into multiuser mode.
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

8.3.4 如何復原非密封的根 (/)檔案系統 (VERITAS Volume Manager)

請使用這個程序來復原非密封的根 (/) 檔案系統到節點。要復原的節點應該不在啟動狀態。請先確定叢集執行時沒任何錯誤,再執行復原程序。


註解 -

由於您必須將新磁碟的分割區製作成和故障磁碟完全相同的格式,請在開始本程序之前先識別分割機制,同時適當地重新建立檔案系統。


  1. 置換節點上要復原根檔案系統的故障磁碟。

    請參閱隨附伺服器之文件中敘述的磁碟置換程序。

  2. 啟動正在復原的節點。

    • 如果您使用 Solaris CD-ROM,請執行下列指令:


      ok boot cdrom -s
      

    • 如果您使用 JumpStart 伺服器,請執行下列指令:


      ok boot net -s
      

  3. 使用 format(1M) 指令,在根磁碟上建立所有的分割區與交換。

    重新建立故障磁碟的原始分割機制。

  4. 使用 newfs(1M) 指令,建立適當的根 (/) 檔案系統以及其他檔案系統。

    重新建立故障磁碟的原始檔案系統。


    註解 -

    請務必要建立 /global/.devices/node@nodeid 檔案系統。


  5. 將根 (/) 檔案系統裝載到暫時裝載點。


    # mount device temp-mount-point
    

  6. 從備份復原根 (/) 檔案系統,同時卸載並檢查檔案系統。


    # cd temp-mount-point # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mount-point
    # fsck raw-disk-device
    

    檔案系統現在完成復原。

  7. 在新磁碟上安裝新的啟動區塊。


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    

  8. 將節點重新開機為單使用者模式。

    1. 開始重新開機。


      # reboot -- '-s'

      啟動將會看到錯誤或警告訊息,結尾部份附有以下的指示:


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. 輸入 root 密碼。

  9. 判斷根磁碟是否在根磁碟的單一片段上。

    • 如果有,請建立並設定根磁碟群組。


      # vxdctl init
      # vxdg init rootdg
      # vxdctl add disk diskslice type=simple # vxdisk -f init 
      diskslice type=simple # vxdg adddisk diskslice
      # vxdctl enable
      

    • 如果不是,請前進至 步驟 10

  10. 使用 scdidadm 指令來更新磁碟 ID。


    # scdidadm -R /dev/rdsk/disk-device
    

  11. 按 CTRL-d 重新啟動為多使用者模式。

    節點將重新開機為叢集模式。叢集已經備妥可以使用。

8.3.4.1 範例 - 復原非密封的根 (/) 檔案系統 (VERITAS Volume Manager)

以下範例顯示從磁帶裝置 /dev/rmt/0 復原至節點 phys-schost-1 的非密封 (/) 檔案系統。


[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[If the root disk group is on a single slice on the root disk, 
create the new root disk group:]
# vxdctl init
# vxdg init rootdg
# vxdctl add disk c0t0d0s4 type=simple
# vxdisk -f init c0t0d0s4 type=simple
# vxdg adddisk c0t0d0s4
# vxdctl enable
[Update the disk ID:]
# scdidadm -R /dev/rdsk/c0t0d0
[Press CTRL-d to resume in multiuser mode]

8.3.5 如何復原密封的根 (/)檔案系統 (VERITAS Volume Manager)

請使用這個程序來復原密封的根 (/) 檔案系統到節點。要復原的節點應該不在啟動狀態。請先確定叢集執行時沒任何錯誤,再執行復原程序。


註解 -

由於您必須將新磁碟的分割區製作成和故障磁碟完全相同的格式,請在開始本程序之前先識別分割機制,同時適當地重新建立檔案系統。


  1. 置換節點上要復原根檔案系統的故障磁碟。

    請參閱隨附伺服器之文件中敘述的磁碟置換程序。

  2. 啟動正在復原的節點。

    • 如果您使用 Solaris CD-ROM,請執行下列指令:


      ok boot cdrom -s
      
    • 如果您使用 JumpStart 伺服器,請執行下列指令:


      ok boot net -s
      

  3. 使用 format(1M) 指令,在根磁碟上建立所有的分割區與交換。

    重新建立故障磁碟的原始分割機制。

  4. 使用 newfs(1M) 指令,建立適當的根 (/) 檔案系統以及其他檔案系統。

    重新建立故障磁碟的原始檔案系統。


    註解 -

    請務必要建立 /global/.devices/node@nodeid 檔案系統。


  5. 將根 (/) 檔案系統裝載到暫時裝載點。


    # mount device temp-mount-point
    

  6. 從備份復原根 (/) 檔案系統。


    # cd temp-mount-point
    # ufsrestore rvf dump-device
    # rm restoresymtable
    

  7. 建立一個空的 install-db 檔。

    如此將使節點在下次重新啟動時進入 VxVM 安裝模式。


    # touch /temp-mount-point/etc/vx/reconfig.d/state.d/install-db
    

  8. /temp-mount-point/etc/system 檔案移除或 註解出 下列指令。


    * rootdev:/pseudo/vxio@0:0 * set vxio:vol_rootdev_is_volume=1

  9. 編輯/temp-mount-point/etc/vfstab 檔並將所有的 VxVM 裝載點換成根磁碟的標準磁碟裝置,例如 /dev/dsk/c0t0d0s0


    Example: 
    Change from - 
    /dev/vx/dsk/rootdg/rootvol /dev/md/rdsk/rootdg/rootvol /      ufs   1     no -
    
    Change to - 
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -

  10. 卸載暫時檔案系統,並檢查檔案系統。


    # cd /
    # umount temp-mount-point
    # fsck raw-disk-device
    

  11. 在新磁碟上安裝啟動區塊。


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    

  12. 將節點重新開機為單使用者模式。


    # reboot -- '-s'
    

  13. 使用 scdidadm(1M) 來更新磁碟 ID。


    # scdidadm -R /dev/rdsk/c0t0d0
    

  14. 執行 vxinstall 以封裝磁碟並重新啟動。


    # vxinstall
    

  15. 如果有某個次要號碼和其他系統衝突,請卸載整體裝置同時重新指定次要號碼。

    • 卸載叢集節點上的整體裝置檔案系統。


      # umount /global/.devices/node@nodeid
      

    • 稍微修改叢集節點上的 rootdg 磁碟群組。


      # vxdg reminor rootdg 100
      

  16. 在叢集模式下關閉並重新啟動節點。


    # shutdown -g0 -i6 -y
    

8.3.5.1 範例 - 復原密封的根 (/) 檔案系統 (VERITAS Volume Manager)

以下範例顯示密封根 (/) 檔案系統從磁帶裝置 /dev/rmt/0 復原至節點 phys-schost-1


[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Create an empty install-db file:]
# touch /a/etc/vx/reconfig.d/state.d/install-db
[Edit /etc/system on the temporary file system and remove or comment out the following entries:]
	# rootdev:/pseudo/vxio@0:0
	# set vxio:vol_rootdev_is_volume=1
[Edit /etc/vfstab on the temporary file system:]
Example: 
Change from - 
/dev/vx/dsk/rootdg/rootvol /dev/md/rdsk/rootdg/rootvol / ufs 1 no-

Change to - 
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
[Unmount the temporary file system, then check the file system:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Update the disk ID:]
# scdidadm -R /dev/rdsk/c0t0d0
[Run vxinstall:]
# vxinstall
Choose to encapsulate the root disk.
[If there is a conflict in minor number, reminor the rootdg disk group:]
# umount /global/.devices/node@nodeid
# vxdg reminor rootdg 100
# shutdown -g0 -i6 -y

8.3.5.2 下一步

有關如何鏡像封裝的根磁碟的指示,請參閱 Sun Cluster 3.0 U1 安裝手冊。復原叢集檔案