Sun Cluster 系統管理指南 (適用於 Solaris 作業系統)

備份叢集

表 9–1 對應作業: 備份叢集檔案

作業  

如需相關說明,請前往… 

尋找要備份的檔案系統的名稱 

如何尋找要備份的檔案系統名稱

計算完整備份所需的磁帶數 

如何判斷完整備份所需的磁帶數

備份 root 檔案系統 

如何備份根 (/) 檔案系統

執行鏡像或診測檔案系統的線上備份 

如何執行鏡像的線上備份 (Solstice DiskSuite/Solaris Volume Manager)

SPARC: 如何執行容體的線上備份 (VERITAS Volume Manager)

如何尋找要備份的檔案系統名稱

使用此程序判斷要備份的檔案系統的名稱。

  1. 顯示 /etc/vfstab 檔的內容。

    您不必是超級使用者,即可執行這個指令。


    % more /etc/vfstab
    

  2. 在裝載點欄位尋找您要備份之檔案系統的名稱。

    請在備份檔案系統時使用這個名稱。


    % more /etc/vfstab 
    

範例—尋找要備份的檔案系統名稱

在以下範例中,列示在 /etc/vfstab 檔中的可用檔案系統會顯示出來。


% more /etc/vfstab
#device             device             mount  FS fsck  mount  mount
#to mount           to fsck            point  type     pass   at boot  options
#
#/dev/dsk/c1d0s2    /dev/rdsk/c1d0s2   /usr     ufs     1      yes      -
 f                  -                  /dev/fd  fd      -      no       -
 /proc              -                  /proc    proc    -      no       -
 /dev/dsk/c1t6d0s1  -                  -        swap    -      no       -
 /dev/dsk/c1t6d0s0  /dev/rdsk/c1t6d0s0 /        ufs     1      no       -
 /dev/dsk/c1t6d0s3  /dev/rdsk/c1t6d0s3 /cache   ufs     2      yes      -
 swap               -                  /tmp     tmpfs   -      yes      -

如何判斷完整備份所需的磁帶數

使用此程序計算您備份檔案系統時所需的磁帶數。

  1. 在您要備份的叢集節點上成為超級使用者。

  2. 以位元組預估備份大小。


    # ufsdump S filesystem 
    

    S

    顯示執行備份時的預計位元組數。

    filesystem

    指定您要備份之檔案系統的名稱。

  3. 將預估大小除以磁帶容量來求出所需的磁帶數。

範例—判斷需要的磁帶數

在以下範例中,905,881,620 位元組的檔案系統可以輕易地放入 4 GB 磁帶 (905,881,620 ÷ 4,000,000,000)。


# ufsdump S /global/phys-schost-1
905881620

如何備份根 (/) 檔案系統

使用此程序備份叢集節點的 root (/) 檔案系統。 請先確定叢集執行時沒有任何錯誤,再執行備份程序。

  1. 在您要備份的叢集節點上成為超級使用者。

  2. 將每個執行的資料服務從要備份的節點切換到叢集中的另一節點上。


    # scswitch -z -D disk-device-group[,...] -h node[,...]
    

    -z

    執行切換。

    -D disk-device-group

    要進行切換的磁碟裝置群組名稱。

    -h node

    指定要當作磁碟裝置群組切換目標的叢集節點名稱。 此節點會成為新的主要節點。

  3. 關閉節點。


    # shutdown -g0 -y -i0
    

  4. 將節點重新開啟為非叢集模式。

    • SPARC︰


      ok boot -x
      

    • x86︰


                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
      sd@0,0:a
      Boot args:
      
      Type  b [file-name] [boot-flags] <ENTER> to boot with options
      or    i <ENTER>                          to enter boot interpreter
      or    <ENTER>                            to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -x
      

  5. 備份 root (/) 檔案系統。

    • 如果根磁碟為未密封,請使用下列指令。


      # ufsdump 0ucf dump-device /
      

    • 如果已封裝根磁碟,請使用下列指令。


      # ufsdump 0ucf dump-device /dev/vx/rdsk/rootvol
      

    請參閱 ufsdump(1M) 線上說明手冊,以取得詳細資訊。

  6. 將節點重新啟動為叢集模式。


    # init 6
    

範例—備份根 (/) 檔案系統

在以下範例中,root (/) 檔案系統會備份到磁帶裝置 /dev/rmt/0 上。


# ufsdump 0ucf /dev/rmt/0 /
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 18 18:06:15 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/rdsk/c0t0d0s0 (phys-schost-1:/) to /dev/rmt/0
  DUMP: Mapping (Pass I) [regular files]
  DUMP: Mapping (Pass II) [directories]
  DUMP: Estimated 859086 blocks (419.48MB).
  DUMP: Dumping (Pass III) [directories]
  DUMP: Dumping (Pass IV) [regular files]
  DUMP: 859066 blocks (419.47MB) on 1 volume at 2495 KB/sec
  DUMP: DUMP IS DONE
  DUMP: Level 0 dump on Tue Apr 18 18:06:15 2000

如何執行鏡像的線上備份 (Solstice DiskSuite/Solaris Volume Manager)

備份鏡像的復合裝置時不必先卸載,也不必將整個鏡像設成離線。 有一個子鏡像必須暫時設成離線,這樣會導致失去鏡像功能,但可在備份完成後重新使它進入線上並同步,如此可以不必關機或拒絕使用者存取資料。 使用鏡像來執行線上備份可建立作用中檔案系統的「快照」備份。

如果程式在執行 lockfs 指令之前將資料寫入容體,可能會發生問題。 要避免這個問題,請先暫時停止在這個節點上執行的所有服務。 另外,請先確認叢集執行時沒有任何錯誤,再執行備份程序。

  1. 在您要備份的叢集節點上成為超級使用者。

  2. 使用 metaset(1M) 指令來判斷哪一個節點擁有已備份容體的所有權。


    # metaset -s setname
    

    -s setname

    指定磁碟組名稱。

  3. 配合使用 lockfs(1M) 指令與 -w 選項來鎖定檔案系統以防止寫入。


    # lockfs -w mountpoint 
    


    註解 –

    只有當 UFS 檔案系統位於鏡像上時,才需要鎖定檔案系統。 例如,如果元式裝置設置成資料庫管理軟體或其他特定應用程式的原始裝置,則不必使用 lockfs 指令。 不過,您可能要執行適當的廠商相關公用程式,來清除任何緩衝區以及鎖定存取。


  4. 使用 metastat(1M) 指令來判斷子鏡像的名稱。


    # metastat -s setname -p
    

    -p

    以類似 md.tab 檔的格式顯示狀態。

  5. 使用 metadetach(1M) 指令來使一個子鏡像從鏡像離線。


    # metadetach -s setname mirror submirror
    


    註解 –

    讀取作業將從其他子鏡像持續進行。 不過,離線的子鏡像將在第一次寫入其他鏡像時失去同步。 這種不一致可在離線子鏡像重回線上時更正。 您不需要執行 fsck


  6. 使用 lockfs 指令以及 -u 選項解除檔案系統的鎖定以容許繼續寫入。


    # lockfs -u mountpoint 
    

  7. 執行檔案系統檢查。


    # fsck /dev/md/diskset/rdsk/submirror
    

  8. 將離線子鏡像備份到磁帶或其他媒體。

    請使用 ufsdump(1M) 指令或其他常用的備份公用程式。


    # ufsdump 0ucf dump-device submirror
    


    註解 –

    請使用子鏡像的原始裝置 (/rdsk) 名稱,而不是區塊裝置 (/dsk) 名稱。


  9. 使用 metattach(1M) 指令將元式裝置重新設回線上狀態。


    # metattach -s setname mirror submirror
    

    複合裝置進入線上狀態後,將自動和鏡像同步。

  10. 使用 metastat 指令來驗證子鏡像是否同步。


    # metastat -s setname mirror
    

範例—執行鏡像的線上備份 (Solstice DiskSuite/Solaris Volume Manager)

在下列範例中,叢集節點 phys-schost-1 為 metaset schost-1 的所有者,因此備份程序是從 phys-schost-1 開始執行。 鏡像 /dev/md/schost-1/dsk/d0 是由 d10d20d30 等子鏡像所組成。


[Determine the owner of the metaset:]
# metaset -s schost-1
Set name = schost-1, Set number = 1
Host                Owner
  phys-schost-1     Yes 
...
[Lock the file system from writes:] 
# lockfs -w /global/schost-1
[List the submirrors:]
# metastat -s schost-1 -p
schost-1/d0 -m schost-1/d10 schost-1/d20 schost-1/d30 1
schost-1/d10 1 1 d4s0
schost-1/d20 1 1 d6s0
schost-1/d30 1 1 d8s0
[Take a submirror offline:]
# metadetach -s schost-1 d0 d30
[Unlock the file system:]
# lockfs -u /
[Check the file system:]
# fsck /dev/md/schost-1/rdsk/d30
[Copy the submirror to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/md/schost-1/rdsk/d30
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/md/schost-1/rdsk/d30 to /dev/rdsk/c1t9d0s0.
  ...
  DUMP: DUMP IS DONE
[Bring the submirror back online:]
# metattach -s schost-1 d0 d30
schost-1/d0: submirror schost-1/d30 is attached
[Resync the submirror:]
# metastat -s schost-1 d0
schost-1/d0: Mirror
    Submirror 0: schost-0/d10
      State: Okay         
    Submirror 1: schost-0/d20
      State: Okay
    Submirror 2: schost-0/d30
      State: Resyncing
    Resync in progress: 42% done
    Pass: 1
    Read option: roundrobin (default)
...

SPARC: 如何執行容體的線上備份 (VERITAS Volume Manager)

VERITAS 容體管理程式將映射的容體識別為診測裝置。 備份診測裝置時不必先卸載,也不必將整個容體設成離線。 這是透過建立容體的快照副本以及備份這個暫時容體的方式來完成,不必關閉系統也不必拒絕使用者存取資料。

請先確定叢集執行時沒有任何錯誤,再執行備份程序。

  1. 登入叢集中任一個節點,同時在叢集上之磁碟群組的現行主要節點上成為超級使用者。

  2. 列出磁碟群組資訊。


    # vxprint -g diskgroup
    

  3. 執行 scstat(1M) 指令以查看哪一個節點擁有目前匯入的磁碟群組,表示它就是磁碟群組的主要節點。


     # scstat -D
    

    -D

    顯示所有磁碟裝置群組的狀態。

  4. 使用 vxassist 指令來建立容體的快照。


    # vxassist -g diskgroup snapstart volume
    


    註解 –

    視您容體大小而定,建立快照可能需要一段長時間。


  5. 確認已建立新的容體。


    # vxprint -g diskgroup
    

    當快照完成時,Snapdone 的狀態會顯示在選定磁碟群組的 State 欄位中。

  6. 停止任何存取檔案系統的資料服務。


    # scswitch -z -g resource-group[,...] -h “”
    


    註解 –

    停止資料服務,以確保資料檔案系統備份正常執行。 如果沒有任何資料服務在執行中,則您不需要執行步驟 6步驟 8


  7. 使用 vxassist 指令建立名為 bkup-vol 的備份容體,並將快照容體貼附到其中。


    # vxassist -g diskgroup snapshot volume bkup-vol
    

  8. 使用 scswitch(1M) 指令重新啟動所有在步驟 6 中停止的資料服務。


    # scswitch -z -g resource-group[,...] -h node[,...]
    

  9. 驗證連接到新容體 bkup-vol 的容體 (使用 vxprint 指令)。


    # vxprint -g diskgroup
    

  10. 註冊磁碟群組的配置變更。


    # scconf -c -D name=diskgroup,sync
    

  11. 使用 fsck 指令來檢查備份容體。


    # fsck -y /dev/vx/rdsk/diskgroup/bkup-vol
    

  12. 執行備份作業,將容體 bkup-vol 複製到磁帶或其他媒體。

    請使用 ufsdump(1M) 指令或其他常用的備份公用程式。


    # ufsdump 0ucf dump-device /dev/vx/dsk/diskgroup/bkup-vol
    

  13. 使用 vxedit 移除暫存容體。


    # vxedit -rf rm bkup-vol
    

  14. 使用 scconf(1M) 指令註冊磁碟群組配置變更。


    # scconf -c -D name=diskgroup,sync
    

SPARC: 範例—執行容體的線上備份 (VERITAS Volume Manager)

在以下範例中,叢集節點 phys-schost-2 是 metaset 磁碟群組 schost-1 的主要所有者,因此備份程序是從 phys-schost-2 執行。 複製 /vo101 容體並讓它和新容體 bkup-vol 關聯。


[Become superuser on the primary node.]
[Identify the current primary node for the disk group:]
# scstat -D
-- Device Group Servers --
                         Device Group     Primary           Secondary
                         ------------     -------           ---------
 Device group servers:   rmt/1            -                 -
 Device group servers:   schost-1         phys-schost-2     phys-schost-1

-- Device Group Status --
                             Device Group        Status              
                             ------------        ------              
 Device group status:        rmt/1               Offline
 Device group status:        schost-1            Online
[List the disk group information:]
# vxprint -g schost-1
TY NAME            ASSOC     KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
 
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
[Start the snapshot operation:]
# vxassist -g schost-1 snapstart vol01
[Verify the new volume was created:]
# vxprint -g schost-1
TY NAME            ASSOC    KSTATE    LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
  
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
pl vol01-04       vol01      ENABLED  208331   -      SNAPDONE -      -
sd schost-105-01  vol01-04   ENABLED  104139   0      -        -      -
sd schost-106-01  vol01-04   ENABLED  104139   0      -        -      -
[Stop data services, if necessary:]
# scswitch -z -g nfs-rg -h ““
[Create a copy of the volume:]
# vxassist -g schost-1 snapshot vol01 bkup-vol
[Restart data services, if necessary:]
# scswitch -z -g nfs-rg -h phys-schost-1
[Verify bkup-vol was created:]
# vxprint -g schost-1
TY NAME           ASSOC       KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1    -        -        -      -        -      -
 
dm schost-101     c1t1d0s2    -        17678493 -      -        -      -
...
 
v  bkup-vol       gen         ENABLED  204800   -      ACTIVE   -      -
pl bkup-vol-01    bkup-vol    ENABLED  208331   -      ACTIVE   -      -
sd schost-105-01  bkup-vol-01 ENABLED  104139   0      -        -      -
sd schost-106-01  bkup-vol-01 ENABLED  104139   0      -        -      -
 
v  vol01          gen         ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01    ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01    ENABLED  104139   0      -        -      -
pl vol01-02       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02    ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02    ENABLED  104139   0      -        -      -
pl vol01-03       vol01       ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03    ENABLED  5        LOG    -        -      -
[Synchronize the disk group with cluster framework:]
# scconf -c -D name=schost-1,sync
[Check the file systems:]
# fsck -y /dev/vx/rdsk/schost-1/bkup-vol
[Copy bkup-vol to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/vx/rdsk/schost-1/bkup-vol
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/vx/dsk/schost-2/bkup-vol to /dev/rmt/0.
  ...
  DUMP: DUMP IS DONE
[Remove the bkup-volume:]
# vxedit -rf rm bkup-vol
[Synchronize the disk group:]
# scconf -c -D name=schost-1,sync