Sun Cluster 3.0 12/01 시스템 관리 안내서

8장 클러스터 백업 및 복원

이 장에 있는 단계별 지시 사항 목록은 다음과 같습니다.

8.1 클러스터 백업

표 8-1 작업 맵: 클러스터 파일 백업

작업 

참고 항목 

백업할 파일 시스템 이름 찾기 

"8.1.1 백업할 파일 시스템 이름을 찾는 방법"

전체 백업을 저장하기 위해 필요한 테이프 수 계산 

"8.1.2 전체 백업에 필요한 테이프 수를 계산하는 방법"

루트 파일 시스템 백업 

"8.1.3 루트(/) 파일 시스템을 백업하는 방법"

이중화 또는 플렉스 파일 시스템에 대해 온라인 백업 수행 

"8.1.4 미러를 온라인으로 백업하는 방법(Solstice DiskSuite)"

"8.1.5 볼륨을 온라인으로 백업하는 방법(VERITAS Volume Manager)"

8.1.1 백업할 파일 시스템 이름을 찾는 방법

백업할 파일 시스템 이름을 결정하려면 이 절차를 사용하십시오.

  1. /etc/vfstab 파일의 내용을 표시하십시오.

    이 명령을 실행하기 위해 수퍼유저가 될 필요는 없습니다.


    % more /etc/vfstab
    

  2. 백업하려는 파일 시스템의 이름을 마운트 포인트 열에서 찾으십시오.

    파일 시스템을 백업할 때 이 이름을 사용하십시오.


    % more /etc/vfstab 
    

8.1.1.1 예: 백업할 파일 시스템 이름 찾기

다음은 /etc/vfstab 파일에 있는 사용 가능한 파일 시스템 이름을 표시한 예입니다.


% more /etc/vfstab
#device             device             mount  FS fsck  mount  mount
#to mount           to fsck            point  type     pass   at boot  options
#
#/dev/dsk/c1d0s2    /dev/rdsk/c1d0s2   /usr     ufs     1      yes      -
 f                  -                  /dev/fd  fd      -      no       -
 /proc              -                  /proc    proc    -      no       -
 /dev/dsk/c1t6d0s1  -                  -        swap    -      no       -
 /dev/dsk/c1t6d0s0  /dev/rdsk/c1t6d0s0 /        ufs     1      no       -
 /dev/dsk/c1t6d0s3  /dev/rdsk/c1t6d0s3 /cache   ufs     2      yes      -
 swap               -                  /tmp     tmpfs   -      yes      -

8.1.2 전체 백업에 필요한 테이프 수를 계산하는 방법

파일 시스템을 백업하기 위해 필요한 테이프 수를 계산하려면 이 절차를 사용하십시오.

  1. 백업하려는 클러스터 노드의 수퍼유저가 되십시오.

  2. 백업 크기를 바이트 단위로 계산하십시오.


    # ufsdump S filesystem 
    

    S

    백업을 수행하는 데 필요한 용량을 계산하여 바이트 단위로 표시합니다.

    filesystem

    백업하려는 파일 시스템의 이름을 지정합니다.

  3. 필요한 테이프 수를 보려면 계산된 값을 테이프 용량으로 나누십시오.

8.1.2.1 예: 필요한 테이프 수 계산

다음 예에 있는 파일 시스템 크기 905,881,620 바이트는 4GB 테이프에 쉽게 들어갑니다(905,881,620 / 4,000,000,000).


# ufsdump S /global/phys-schost-1
905881620

8.1.3 루트(/) 파일 시스템을 백업하는 방법

클러스터 노드의 루트(/) 파일 시스템을 백업하려면 이 절차를 사용하십시오. 백업 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.

  1. 백업하려는 클러스터 노드의 수퍼유저가 되십시오.

  2. 백업할 노드에서 실행하는 데이터 서비스를 클러스터의 다른 노드로 전환하십시오.


    # scswitch -z -D disk-device-group -h nodelist
    

    -z

    전환을 수행합니다.

    -D disk-device-group

    전환될 디스크 장치 그룹의 이름.

    -h nodelist

    디스크 장치 그룹을 전환할 클러스터 노드의 이름을 지정합니다. 이 노드가 새 1차 노드가 됩니다.

  3. 노드를 중지시키십시오.


    # shutdown -g0 -y -i0
    

  4. ok 프롬프트에서 비클러스터 모드로 다시 부트하십시오.


    ok boot -x
    

  5. 루트(/) 파일 시스템을 백업하십시오.

    • 루트 디스크가 캡슐화되지 않은 경우에는 다음 명령을 사용하십시오.


      # ufsdump 0ucf dump-device /
      

    • 루트 디스크가 캡슐화된 경우에는 다음 명령을 사용하십시오.


      # ufsdump 0ucf dump-device /dev/vx/rdsk/rootvol
      

    자세한 내용은 ufsdump(1M) 설명서 페이지를 참조하십시오.

  6. 클러스터 모드로 노드를 다시 부트하십시오.


    # init 6
    

8.1.3.1 예: 루트(/) 파일 시스템 백업

다음은 루트(/) 파일 시스템을 테이프 장치 /dev/rmt/0에 백업하는 예입니다.


# ufsdump 0ucf /dev/rmt/0 /
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 18 18:06:15 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/rdsk/c0t0d0s0 (phys-schost-1:/) to /dev/rmt/0
  DUMP: Mapping (Pass I) [regular files]
  DUMP: Mapping (Pass II) [directories]
  DUMP: Estimated 859086 blocks (419.48MB).
  DUMP: Dumping (Pass III) [directories]
  DUMP: Dumping (Pass IV) [regular files]
  DUMP: 859066 blocks (419.47MB) on 1 volume at 2495 KB/sec
  DUMP: DUMP IS DONE
  DUMP: Level 0 dump on Tue Apr 18 18:06:15 2000

8.1.4 미러를 온라인으로 백업하는 방법(Solstice DiskSuite)

이중화된 메타 장치는 전체 미러를 마운트 해제하거나 오프라인으로 전환하지 않고 백업할 수 있습니다. 하위 미러 중 하나는 일시적으로 오프라인으로 전환하여 이중화를 제거해야 하지만 백업이 완료되면 바로 온라인으로 전환되어 동기화되므로 시스템이 중단되거나 데이터에 대한 사용자의 액세스를 거부하지 않습니다. 미러를 사용하여 온라인 백업을 수행하면 현재 작동하는 파일 시스템의 "스냅샷"이 백업됩니다.

lockfs 명령이 실행되기 직전에 프로그램에서 볼륨에 데이터를 쓰면 문제가 발생할 수 있습니다. 이 문제를 방지하려면, 이 노드에서 실행되는 모든 서비스를 일시적으로 중지하십시오. 또한, 백업 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.

  1. 백업하려는 클러스터 노드의 수퍼유저가 되십시오.

  2. metaset(1M) 명령을 사용하여 백업 볼륨에 대한 소유권이 있는 노드를 확인하십시오.


    # metaset -s setname
    

    -s setname

    디스크 세트 이름을 지정합니다.

  3. lockfs(1M) 명령에 -w 옵션을 사용하여 파일 시스템에 쓰지 못하도록 잠그십시오.


    # lockfs -w mountpoint 
    


    주 -

    UFS 파일 시스템이 미러에 있는 경우에만 파일 시스템을 잠가야 합니다. 예를 들어, 메타 장치가 데이터베이스 관리 소프트웨어 또는 일부 다른 특정 응용프로그램에 대해 원시 장치로 설정되어 있으면 lockfs 명령을 사용할 필요가 없습니다. 그러나 공급업체에서 제공하는 유틸리티를 실행하여 버퍼를 비우고 액세스를 잠글 수도 있습니다.


  4. metastat(1M) 명령을 사용하여 하위 미러의 이름을 결정하십시오.


    # metastat -s setname -p
    

    -p

    md.tab 파일과 유사한 형식으로 상태를 표시합니다.

  5. metadetach(1M) 명령을 사용하여 미러에서 하위 미러 하나를 오프라인으로 전환하십시오.


    # metadetach -s setname mirror submirror
    


    주 -

    읽기 기능은 다른 하위 미러에서 계속 제공합니다. 그러나 미러에 첫 번째 쓰기 작업이 수행되면 그 때부터 오프라인 상태의 하위 미러에 대한 동기화가 수행되지 않습니다. 오프라인 상태의 하위 미러가 다시 온라인 상태로 전환되면 이러한 불일치 문제가 해결됩니다. fsck 명령은 실행하지 않아도 됩니다.


  6. lockfs 명령에 -u 옵션을 사용하여 파일 시스템 잠금을 해제하고 쓰기 기능을 계속 제공하십시오.


    # lockfs -u mountpoint 
    

  7. 파일 시스템 검사를 수행하십시오.


    # fsck /dev/md/diskset/rdsk/submirror
    

  8. 오프라인 상태의 하위 미러를 테이프나 다른 백업 매체에 백업하십시오.

    ufsdump(1M) 명령을 사용하거나 일반적으로 사용하는 다른 백업 유틸리티를 사용하십시오.


    # ufsdump 0ucf dump-device submirror
    


    주 -

    하위 미러에 대해 블록 장치(/dsk) 이름이 아닌 원시 장치(/rdsk) 이름을 사용하십시오.


  9. metattach(1M) 명령을 사용하여 메타 장치 백업을 온라인으로 전환하십시오.


    # metattach -s setname mirror submirror
    

    메타 장치가 온라인으로 전환되면 자동으로 다시 미러와 동기화됩니다.

  10. metastat 명령을 사용하여 하위 미러가 다시 동기화되는지 확인하십시오.


    # metastat -s setname mirror
    

8.1.4.1 예: 미러에 대한 온라인 백업 수행(Solstice DiskSuite)

다음 예에서 클러스터 노드 phys-schost-1이 메타 세트 schost-1의 소유자입니다. 따라서 phys-schost-1에서 백업 절차가 수행됩니다. 미러 /dev/md/schost-1/dsk/d0은 하위 미러 d10, d20d30으로 구성되어 있습니다.


[Determine the owner of the metaset:]
# metaset -s schost-1
Set name = schost-1, Set number = 1
Host                Owner
  phys-schost-1     Yes 
...
[Lock the file system from writes:] 
# lockfs -w /global/schost-1
[List the submirrors:]
# metastat -s schost-1 -p
schost-1/d0 -m schost-1/d10 schost-1/d20 schost-1/d30 1
schost-1/d10 1 1 d4s0
schost-1/d20 1 1 d6s0
schost-1/d30 1 1 d8s0
[Take a submirror offline:]
# metadetach -s schost-1 d0 d30
[Unlock the file system:]
# lockfs -u /
[Check the file system:]
# fsck /dev/md/schost-1/rdsk/d30
[Copy the submirror to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/md/schost-1/rdsk/d30
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/md/schost-1/rdsk/d30 to /dev/rdsk/c1t9d0s0.
  ...
  DUMP: DUMP IS DONE
[Bring the submirror back online:]
# metattach -s schost-1 d0 d30
schost-1/d0: submirror schost-1/d30 is attached
[Resync the submirror:]
# metastat -s schost-1 d0
schost-1/d0: Mirror
    Submirror 0: schost-0/d10
      State: Okay         
    Submirror 1: schost-0/d20
      State: Okay
    Submirror 2: schost-0/d30
      State: Resyncing
    Resync in progress: 42% done
    Pass: 1
    Read option: roundrobin (default)
...

8.1.5 볼륨을 온라인으로 백업하는 방법(VERITAS Volume Manager)

VERITAS Volume Manager는 이중화된 볼륨을 플렉스로 인식합니다. 플렉스는 전체 볼륨을 마운트 해제하거나 오프라인으로 전환하지 않고 백업할 수 있습니다. 이 백업은 시스템을 중지시키거나 데이터에 대한 사용자의 액세스를 거부하지 않고 볼륨의 스냅샷 사본을 만들고 이 임시 볼륨을 백업하는 방법으로 수행합니다.

백업 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.

  1. 클러스터의 노드에 로그온한 다음 클러스터에 있는 디스크 그룹의 현재 1차 노드에 대해 수퍼유저가 되십시오.

  2. 디스크 그룹 정보를 표시하십시오.


    # vxprint -g diskgroup
    

  3. scstat(1M) 명령을 실행하여 현재 가져온 디스크 그룹이 어느 노드에 있는지 확인하십시오. 이 노드가 디스크 그룹에 대한 1차 노드입니다.


    # scstat -D
    

    -D

    모든 디스크 장치 그룹의 상태를 표시합니다.

  4. vxassist(1M) 명령을 사용하여 볼륨에 대한 스냅샷을 만드십시오.


    # vxassist -g diskgroup snapstart volume
    


    주 -

    볼륨 크기에 따라 스냅샷을 만드는 시간이 오래 걸릴 수 있습니다.


  5. 새 볼륨이 만들어졌는지 확인하십시오.


    # vxprint -g diskgroup
    

    스냅샷이 완성되면 선택한 디스크 그룹에 대한 State 필드에 Snapdone이라고 표시됩니다.

  6. 파일 시스템에 액세스하는 데이터 서비스를 중지시키십시오.


    # scswitch -z -g resource-group -h ""
    


    주 -

    데이터 파일 시스템이 제대로 백업되려면 모든 데이터 서비스를 중지시켜야 합니다. 데이터 서비스가 실행되지 않는 경우에는 단계 6단계 8을 수행할 필요가 없습니다.


  7. bkup-vol이라는 백업 볼륨을 만들고 vxassist 명령을 사용하여 만든 볼륨에 스냅샷 볼륨을 연결하십시오.


    # vxassist -g diskgroup snapshot volume bkup-vol
    

  8. scswitch 명령을 사용하여 단계 6에서 중단된 데이터 서비스를 다시 시작하십시오.


    # scswitch -z -g resource-group -h nodelist
    

  9. vxprint 명령을 사용하여 볼륨이 새 볼륨 bkup-vol에 연결되었는지 확인하십시오.


    # vxprint -g diskgroup
    

  10. 디스크 그룹 구성의 변경 사항을 등록하십시오.


    # scconf -c -D name=diskgroup,sync
    

  11. fsck 명령을 사용하여 백업 볼륨을 확인하십시오.


    # fsck -y /dev/vx/rdsk/diskgroup/bkup-vol
    

  12. 테이프 또는 다른 매체에 볼륨 bkup-vol을 복사하는 백업을 수행하십시오.

    ufsdump(1M) 명령이나 일반적으로 사용하는 백업 유틸리티를 사용하십시오.


    # ufsdump 0ucf dump-device /dev/vx/dsk/diskgroup/bkup-vol
    

  13. vxedit(1M) 명령을 사용하여 임시 볼륨을 제거하십시오.


    # vxedit -rf rm bkup-vol
    

  14. scconf 명령을 사용하여 디스크 그룹 구성의 변경 사항을 등록하십시오.


    # scconf -c -D name=diskgroup,sync
    

8.1.5.1 예: 볼륨에 대한 온라인 백업 수행(VERITAS Volume Manager)

다음 예에서 클러스터 노드 phys-schost-2가 메타 세트 디스크 그룹 schost-1의 1차 소유자입니다. 따라서 백업 절차는 phys-schost-2에서 수행됩니다. 볼륨 /vo101이 복사된 다음 새 볼륨 bkup-vol에 연결됩니다.


[Become superuser on the primary node.]
[Identify the current primary node for the disk group:]
# scstat -D
-- Device Group Servers --
                         Device Group     Primary           Secondary
                         ------------     -------           ---------
 Device group servers:   rmt/1            -                 -
 Device group servers:   schost-1         phys-schost-2     phys-schost-1

-- Device Group Status --
                             Device Group        Status              
                             ------------        ------              
 Device group status:        rmt/1               Offline
 Device group status:        schost-1            Online
[List the disk group information:]
# vxprint -g schost-1
TY NAME            ASSOC     KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
 
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
[Start the snapshot operation:]
# vxassist -g schost-1 snapstart vol01
[Verify the new volume was created:]
# vxprint -g schost-1
TY NAME            ASSOC    KSTATE    LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
  
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
pl vol01-04       vol01      ENABLED  208331   -      SNAPDONE -      -
sd schost-105-01  vol01-04   ENABLED  104139   0      -        -      -
sd schost-106-01  vol01-04   ENABLED  104139   0      -        -      -
[Stop data services, if necessary:]
# scswitch -z -g nfs-rg -h ""
[Create a copy of the volume:]
# vxassist -g schost-1 snapshot vol01 bkup-vol
[Restart data services, if necessary:]
# scswitch -z -g nfs-rg -h phys-schost-1
[Verify bkup-vol was created:]
# vxprint -g schost-1
TY NAME           ASSOC       KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1    -        -        -      -        -      -
 
dm schost-101     c1t1d0s2    -        17678493 -      -        -      -
...
 
v  bkup-vol       gen         ENABLED  204800   -      ACTIVE   -      -
pl bkup-vol-01    bkup-vol    ENABLED  208331   -      ACTIVE   -      -
sd schost-105-01  bkup-vol-01 ENABLED  104139   0      -        -      -
sd schost-106-01  bkup-vol-01 ENABLED  104139   0      -        -      -
 
v  vol01          gen         ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01    ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01    ENABLED  104139   0      -        -      -
pl vol01-02       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02    ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02    ENABLED  104139   0      -        -      -
pl vol01-03       vol01       ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03    ENABLED  5        LOG    -        -      -
[Synchronize the disk group with cluster framework:]
# scconf -c -D name=schost-1,sync
[Check the file systems:]
# fsck -y /dev/vx/rdsk/schost-1/bkup-vol
[Copy bkup-vol to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/vx/rdsk/schost-1/bkup-vol
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/vx/dsk/schost-2/bkup-vol to /dev/rmt/0.
  ...
  DUMP: DUMP IS DONE
[Remove the bkup-volume:]
# vxedit -rf rm bkup-vol
[Synchronize the disk group:]
# scconf -c -D name=schost-1,sync

8.2 클러스터 파일 복원 개요

ufsrestore 명령을 실행하면 ufsdump 명령을 사용하여 만든 백업의 파일을 현재 작업 디렉토리를 기준 위치로 하여 디스크에 복사합니다. ufsrestore 명령을 사용하면 레벨 0 덤프와 그 다음에 이어지는 증분 덤프에서 전체 파일 시스템 계층을 다시 로드할 수도 있고 덤프 테이프에서 하나 이상의 파일을 복원할 수도 있습니다. 수퍼유저 권한으로 ufsrestore를 실행하면 파일이 원래 소유자, 마지막 수정 시간 및 모드(사용 권한)와 함께 복원됩니다.

파일이나 파일 시스템을 복원하려면 먼저 다음 정보를 알아야 합니다.

8.3 클러스터 파일 복원

표 8-2 작업 맵: 클러스터 파일 복원

작업 

참고 항목 

Solstice DiskSuite의 경우에 Solaris 복원 절차에 따라 대화식으로 파일 복원 

"8.3.1 대화식으로 각 파일을 복원하는 방법(Solstice DiskSuite)"

Solstice DiskSuite의 경우에 루트(/) 파일 시스템 복원

"8.3.2 루트(/) 파일 시스템을 복원하는 방법(Solstice DiskSuite)"

 

"8.3.3 메타 장치에 있던 루트(/) 파일 시스템을 복원하는 방법(Solstice DiskSuite)"

VERITAS Volume Manager의 경우에 캡슐화되지 않은 루트(/) 파일 시스템 복원 

"8.3.4 캡슐화되지 않은 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager)"

VERITAS Volume Manager의 경우에 캡슐화된 루트(/) 파일 시스템 복원 

"8.3.5 캡슐화된 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager)"

8.3.1 대화식으로 각 파일을 복원하는 방법(Solstice DiskSuite)

하나 이상의 파일을 각각 복원하려면 이 절차를 사용하십시오. 복원 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.

  1. 복원하려는 클러스터 노드의 수퍼유저가 되십시오.

  2. 복원하는 파일을 사용하는 데이터 서비스를 모두 중지시키십시오.


    # scswitch -z -g resource-group -h ""
    

  3. ufsrestore 명령을 사용하여 파일을 복원하십시오.

8.3.2 루트(/) 파일 시스템을 복원하는 방법(Solstice DiskSuite)

문제가 있는 루트 디스크를 교체한 경우처럼 루트(/) 파일 시스템을 새 디스크에 복원하려면 이 절차를 사용하십시오. 복원하고 있는 노드를 부트하면 안됩니다. 복원 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.


주 -

장애가 발생한 디스크와 동일한 형식을 사용하여 새 디스크를 분할해야 하기 때문에 이 절차를 시작하기 전에 파티션 구조를 확인하고 필요한 파일 시스템을 다시 만드십시오.


  1. 복원하려는 노드를 제외한 노드 중에서 메타 세트에 액세스할 수 있는 클러스터 노드에 대하여 수퍼유저가 되십시오.

  2. 모든 메타 세트에서 복원되는 노드의 호스트 이름을 제거하십시오.

    제거하는 노드가 아닌 메타 세트의 노드에서 이 명령을 실행하십시오.


    # metaset -s setname -f -d -h nodelist
    

    -s setname

    디스크 세트 이름을 지정합니다.

    -f

    강제로 실행합니다.

    -d

    디스크 세트에서 삭제합니다.

    -h nodelist

    디스크 세트에서 삭제할 노드의 이름을 지정합니다.

  3. 루트(/) 파일 시스템을 복원할 노드에서 장애가 발생한 디스크를 교체하십시오.

    서버와 함께 제공되는 문서에서 디스크를 교체하는 절차를 참조하십시오.

  4. 복원되고 있는 노드를 부트하십시오.

    • Solaris CD-ROM을 사용하는 경우에는 다음 명령을 실행하십시오.


      ok boot cdrom -s
      

    • Solaris JumpStartTM 서버를 사용하는 경우에는 다음 명령을 실행하십시오.


      ok boot net -s
      

  5. format(1M) 명령을 사용하여 루트 디스크에 모든 파티션과 스왑 공간을 만드십시오.

    장애가 발생한 디스크와 동일한 파티션 구조를 다시 만드십시오.

  6. newfs(1M) 명령을 사용하여 루트(/) 파일 시스템과 필요한 다른 파일 시스템을 만드십시오.

    장애가 발생한 디스크와 동일한 파일 시스템을 다시 만드십시오.


    주 -

    /global/.devices/node@nodeid 파일 시스템을 만들어야 합니다.


  7. 임시 마운트 포인트에 루트(/) 파일 시스템을 마운트하십시오.


    # mount device temp-mountpoint
    

  8. 다음 명령을 사용하여 루트(/) 파일 시스템을 복원하십시오.


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    

    이제 파일 시스템이 복원되었습니다.

  9. 새 디스크에 새 부트 블록을 설치하십시오.


    # /usr/sbin/installboot /usr/platform/`uname -챙/lib/fs/ufs/bootblk raw-disk-device
    

  10. 단일 사용자 모드로 노드를 다시 부트하십시오.


    # reboot -- "-s"
    

  11. scdidadm 명령을 사용하여 디스크 ID를 교체하십시오.


    # scdidadm -R rootdisk
    

  12. metadb(1M) 명령을 사용하여 상태 데이터베이스 복제를 다시 만드십시오.


    # metadb -c copies -af raw-disk-device
    

    -c copies

    만들 복제 수를 지정합니다.

    -f raw-disk-device

    복제를 만들 원시 디스크 장치.

    -a

    복제를 추가합니다.

  13. 클러스터 모드로 노드를 다시 부트하십시오.

    1. 다시 부트하십시오.


      # reboot
      

      이 부트 중에 다음과 같은 명령으로 끝나는 오류 또는 경고 메시지가 나타날 수 있습니다.


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. CTRL-d를 눌러 복수 사용자 모드로 부트하십시오.

  14. 복원된 노드가 아닌 다른 클러스터 노드에서 metaset(1M) 명령을 사용하여 복원된 노드를 모든 메타 세트에 추가하십시오.


    phys-schost-2# metaset -s setname -a -h nodelist
    

    -a

    호스트를 만들어 디스크 세트에 추가합니다.

    노드가 클러스터 모드로 다시 부트됩니다. 이제 클러스터를 사용할 준비가 되었습니다.

8.3.2.1 예: 루트(/) 파일 시스템 복원(Solstice DiskSuite)

다음 예는 테이프 장치 /dev/rmt/0에서 노드 phys-schost-1로 복원되는 루트(/) 파일 시스템입니다. 노드 phys-schost-1을 제거하고 나중에 다시 디스크 세트 schost-1에 추가하기 위해 클러스터의 다른 노드 phys-schost-2에서 metaset 명령이 실행됩니다. 다른 명령은 모두 phys-schost-1에서 실행됩니다. 새 부트 블록은 /dev/rdsk/c0t0d0s0에 만들어지고 상태 데이터베이스 복제 세 개는 /dev/rdsk/c0t0d0s4에 만들어집니다.


[Become superuser on a cluster node other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to recreate partitions and file systems.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-챙/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Replace the disk ID:]
# scdidadm -R /dev/dsk/c0t0d0
[Recreate state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Press CTL-d to boot into multiuser mode.
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

8.3.3 메타 장치에 있던 루트(/) 파일 시스템을 복원하는 방법(Solstice DiskSuite)

백업할 때 메타 장치에 있던 루트(/) 파일 시스템을 복원하려면 이 절차를 사용하십시오. 루트 디스크가 손상되어 새 디스크로 교체하는 경우와 같은 상황에서 이 절차를 수행하십시오. 복원하는 노드를 부트하면 안됩니다. 복원 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.


주 -

장애가 발생한 디스크와 동일한 형식을 사용하여 새 디스크를 분할해야 하기 때문에 이 절차를 시작하기 전에 파티션 구조를 확인하고 필요한 파일 시스템을 다시 만드십시오.


  1. 복원하려는 노드를 제외한 노드 중에서 메타 세트에 액세스할 수 있는 클러스터 노드에 대하여 수퍼유저가 되십시오.

  2. 모든 메타 세트에서 복원되는 노드의 호스트 이름을 제거하십시오.


    # metaset -s setname -f -d -h nodelist
    

    -s setname

    메타 세트 이름을 지정합니다.

    -f

    강제로 실행합니다.

    -d

    메타 세트에서 삭제합니다.

    -h nodelist

    메타 세트에서 삭제할 노드의 이름을 지정합니다.

  3. 루트(/) 파일 시스템을 복원할 노드에서 장애가 발생한 디스크를 교체하십시오.

    서버와 함께 제공되는 문서에서 디스크를 교체하는 절차를 참조하십시오.

  4. 복원되고 있는 노드를 부트하십시오.

    • Solaris CD-ROM을 사용하는 경우에는 다음 명령을 실행하십시오.


      ok boot cdrom -s
      

    • JumpStart 서버를 사용하는 경우에는 다음 명령을 실행하십시오.


      ok boot net -s
      

  5. format(1M) 명령을 사용하여 루트 디스크에 모든 파티션과 스왑 공간을 만드십시오.

    장애가 발생한 디스크와 동일한 파티션 구조를 다시 만드십시오.

  6. newfs(1M) 명령을 사용하여 루트(/) 파일 시스템과 필요한 다른 파일 시스템을 만드십시오.

    장애가 발생한 디스크와 동일한 파일 시스템을 다시 만드십시오.


    주 -

    /global/.devices/node@nodeid 파일 시스템을 만들어야 합니다.


  7. 임시 마운트 포인트에 루트(/) 파일 시스템을 마운트하십시오.


    # mount device temp-mountpoint
    

  8. 다음 명령을 사용하여 루트(/) 파일 시스템을 복원하십시오.


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    

  9. 새 디스크에 새 부트 블록을 설치하십시오.


    # /usr/sbin/installboot /usr/platform/`uname -챙/lib/fs/ufs/bootblk raw-disk-device
    

  10. /temp-mountpoint/etc/system 파일에서 MDD 루트 정보에 대한 행을 제거하십시오.


    * Begin MDD root info (do not edit)
    forceload: misc/md_trans
    forceload: misc/md_raid
    forceload: misc/md_mirror
    forceload: misc/md_hotspares
    forceload: misc/md_stripe
    forceload: drv/pcipsy
    forceload: drv/glm
    forceload: drv/sd
    rootdev:/pseudo/md@0:0,10,blk
    * End MDD root info (do not edit)

  11. /temp-mountpoint/etc/vfstab 파일을 편집하여 메타 장치의 루트 항목을 메타 장치에 포함된 루트 디스크의 각 파일 시스템에 해당하는 일반 슬라이스로 변경하십시오.


    Example: 
    Change from-
    /dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -
    
    Change to-
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -

  12. 임시 파일 시스템 마운트를 해제하고 원시 디스크 장치를 확인하십시오.


    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    

  13. 단일 사용자 모드로 노드를 다시 부트하십시오.


    # reboot -- "-s"
    

  14. scdidadm 명령을 사용하여 디스크 ID를 교체하십시오.


    # scdidadm -R rootdisk
    

  15. metadb(1M) 명령을 사용하여 상태 데이터베이스 복제를 다시 만드십시오.


    # metadb -c copies -af raw-disk-device
    

    -c copies

    만들 복제 수를 지정합니다.

    -af raw-disk-device

    이름이 지정된 원시 디스크 장치에 초기 상태 데이터베이스 복제를 만듭니다.

  16. 클러스터 모드로 노드를 다시 부트하십시오.

    1. 다시 부트하십시오.


      # reboot
      

      이 부트 중에 다음과 같은 명령으로 끝나는 오류 또는 경고 메시지가 나타날 수 있습니다.


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. CTRL-d를 눌러 복수 사용자 모드로 부트하십시오.

  17. 복원된 노드가 아닌 다른 클러스터 노드에서 metaset(1M) 명령을 사용하여 복원된 노드를 모든 메타 세트에 추가하십시오.


    phys-schost-2# metaset -s setname -a -h nodelist
    

    -a

    메타 세트를 만들어 추가합니다.

    Solstice DiskSuite 문서의 설명에 따라 루트(/)에 대해 메타 장치/미러를 설정하십시오.

    노드가 클러스터 모드로 다시 부트됩니다. 이제 클러스터를 사용할 준비가 되었습니다.

8.3.3.1 예: 메타 장치에 있던 루트(/) 파일 시스템 복원(Solstice DiskSuite)

다음은 테이프 장치 /dev/rmt/0에서 노드 phys-schost-1로 루트(/) 파일 시스템을 복원하는 예입니다. 노드 phys-schost-1을 제거하고 나중에 다시 디스크 세트 schost-1에 추가하기 위해 클러스터의 다른 노드 phys-schost-2에서 metaset 명령이 실행됩니다. 다른 명령은 모두 phys-schost-1에서 실행됩니다. 새 부트 블록은 /dev/rdsk/c0t0d0s0에 만들어지고 상태 데이터베이스 복제 세 개는 /dev/rdsk/c0t0d0s4에 만들어집니다.


[Become superuser on a cluster node with access to the metaset, 
other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to recreate partitions and file systems.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-챙/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Remove the lines in /temp-mountpoint/etc/system file for MDD root information:]
* Begin MDD root info (do not edit)
forceload: misc/md_trans
forceload: misc/md_raid
forceload: misc/md_mirror
forceload: misc/md_hotspares
forceload: misc/md_stripe
forceload: drv/pcipsy
forceload: drv/glm
forceload: drv/sd
rootdev:/pseudo/md@0:0,10,blk
* End MDD root info (do not edit)
[Edit the /temp-mountpoint/etc/vfstab file]
Example: 
Change from-
/dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -

Change to-
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -
[Unmount the temporary file system and check the raw disk device:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Replace the disk ID:]
# scdidadm -R /dev/dsk/c0t0d0
[Recreate state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Type CTRL-d to boot into multiuser mode.
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

8.3.4 캡슐화되지 않은 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager)

캡슐화되지 않은 루트(/) 파일 시스템을 노드에 복원하려면 이 절차를 사용하십시오. 복원하는 노드를 부트하면 안됩니다. 복원 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.


주 -

장애가 발생한 디스크와 동일한 형식을 사용하여 새 디스크를 분할해야 하기 때문에 이 절차를 시작하기 전에 파티션 구조를 확인하고 필요한 파일 시스템을 다시 만드십시오.


  1. 루트 파일 시스템을 복원할 노드에서 장애가 발생한 디스크를 교체하십시오.

    서버와 함께 제공되는 문서에서 디스크를 교체하는 절차를 참조하십시오.

  2. 복원되고 있는 노드를 부트하십시오.

    • Solaris CD-ROM을 사용하는 경우에는 다음 명령을 실행하십시오.


      ok boot cdrom -s
      

    • JumpStart 서버를 사용하는 경우에는 다음 명령을 실행하십시오.


      ok boot net -s
      

  3. format(1M) 명령을 사용하여 루트 디스크에 모든 파티션과 스왑 공간을 만드십시오.

    장애가 발생한 디스크와 동일한 파티션 구조를 다시 만드십시오.

  4. newfs(1M) 명령을 사용하여 루트(/) 파일 시스템과 필요한 다른 파일 시스템을 만드십시오.

    장애가 발생한 디스크와 동일한 파일 시스템을 다시 만드십시오.


    주 -

    /global/.devices/node@nodeid 파일 시스템을 만들어야 합니다.


  5. 임시 마운트 포인트에 루트(/) 파일 시스템을 마운트하십시오.


    # mount device temp-mountpoint
    

  6. 백업에서 루트(/) 파일 시스템을 복원하고 파일 시스템 마운트를 해제한 다음 확인하십시오.


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    

    이제 파일 시스템이 복원되었습니다.

  7. 새 디스크에 새 부트 블록을 설치하십시오.


    # /usr/sbin/installboot /usr/platform/`uname -챙/lib/fs/ufs/bootblk raw-disk-device
    

  8. 단일 사용자 모드로 노드를 다시 부트하십시오.

    1. 다시 부트하십시오.


      # reboot -- "-s"

      이 부트 중에 다음과 같은 명령으로 끝나는 오류 또는 경고 메시지가 나타날 수 있습니다.


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. 루트 암호를 입력하십시오.

  9. 루트 디스크 그룹이 루트 디스크의 단일 슬라이스에 있는지 확인하십시오.

    • 그러면 루트 디스크 그룹을 만들고 설정하십시오.


      # vxdctl init
      # vxdg init rootdg
      # vxdctl add disk diskslice type=simple
      # vxdisk -f init diskslice type=simple
      # vxdg adddisk diskslice
      # vxdctl enable
      

    • 아니면 단계 10으로 이동하십시오.

  10. scdidadm 명령을 사용하여 디스크 ID를 갱신하십시오.


    # scdidadm -R /dev/rdsk/disk-device
    

  11. CTRL-d를 눌러 복수 사용자 모드로 다시 시작하십시오.

    노드가 클러스터 모드로 다시 부트됩니다. 이제 클러스터를 사용할 준비가 되었습니다.

8.3.4.1 예: 캡슐화되지 않은 루트(/) 파일 시스템 복원(VERITAS Volume Manager)

다음은 테이프 장치 /dev/rmt/0에서 노드 phys-schost-1로 캡슐화되지 않은 루트(/) 파일 시스템을 복원하는 예입니다.


[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-챙/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[If the root disk group is on a single slice on the root disk, 
create the new root disk group:]
# vxdctl init
# vxdg init rootdg
# vxdctl add disk c0t0d0s4 type=simple
# vxdisk -f init c0t0d0s4 type=simple
# vxdg adddisk c0t0d0s4
# vxdctl enable
[Update the disk ID:]
# scdidadm -R /dev/rdsk/c0t0d0
[Press CTRL-d to resume in multiuser mode]

8.3.5 캡슐화된 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager)

캡슐화된 루트(/) 파일 시스템을 노드에 복원하려면 이 절차를 사용하십시오. 복원하는 노드를 부트하면 안됩니다. 복원 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.


주 -

장애가 발생한 디스크와 동일한 형식을 사용하여 새 디스크를 분할해야 하기 때문에 이 절차를 시작하기 전에 파티션 구조를 확인하고 필요한 파일 시스템을 다시 만드십시오.


  1. 루트 파일 시스템을 복원할 노드에서 장애가 발생한 디스크를 교체하십시오.

    서버와 함께 제공되는 문서에서 디스크를 교체하는 절차를 참조하십시오.

  2. 복원되고 있는 노드를 부트하십시오.

    • Solaris CD-ROM을 사용하는 경우에는 다음 명령을 실행하십시오.


      ok boot cdrom -s
      
    • JumpStart 서버를 사용하는 경우에는 다음 명령을 실행하십시오.


      ok boot net -s
      

  3. format(1M) 명령을 사용하여 루트 디스크에 모든 파티션과 스왑 공간을 만드십시오.

    장애가 발생한 디스크와 동일한 파티션 구조를 다시 만드십시오.

  4. newfs(1M) 명령을 사용하여 루트(/) 파일 시스템과 필요한 다른 파일 시스템을 만드십시오.

    장애가 발생한 디스크와 동일한 파일 시스템을 다시 만드십시오.


    주 -

    /global/.devices/node@nodeid 파일 시스템을 만들어야 합니다.


  5. 임시 마운트 포인트에 루트(/) 파일 시스템을 마운트하십시오.


    # mount device temp-mountpoint
    

  6. 백업에서 루트(/) 파일 시스템을 복원하십시오.


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    

  7. 비어 있는 install-db 파일을 만드십시오.

    그러면 다음에 다시 부트할 때 노드가 VxVM 설치 모드로 부트됩니다.


    # touch /temp-mountpoint/etc/vx/reconfig.d/state.d/install-db
    

  8. /temp-mountpoint/etc/system 파일에서 다음 항목을 제거하거나 주석 표시를 하십시오.


    * rootdev:/pseudo/vxio@0:0
    * set vxio:vol_rootdev_is_volume=1

  9. /temp-mountpoint/etc/vfstab 파일을 편집하여 모든 VxVM 마운트 포인트를 /dev/dsk/c0t0d0s0과 같은 루트 디스크의 표준 디스크 장치로 교체하십시오.


    Example: 
    Change from-
    /dev/vx/dsk/rootdg/rootvol /dev/md/rdsk/rootdg/rootvol /      ufs   1     no -
    
    Change to-
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -

  10. 임시 파일 시스템 마운트를 해제하고 파일 시스템을 확인하십시오.


    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    

  11. 새 디스크에 새 부트 블록을 설치하십시오.


    # /usr/sbin/installboot /usr/platform/`uname -챙/lib/fs/ufs/bootblk raw-disk-device
    

  12. 단일 사용자 모드로 노드를 다시 부트하십시오.


    # reboot -- "-s"
    

  13. scdidadm(1M) 명령을 사용하여 디스크 ID를 갱신하십시오.


    # scdidadm -R /dev/rdsk/c0t0d0
    

  14. vxinstall 명령을 실행하여 디스크를 캡슐화하고 다시 부트하십시오.


    # vxinstall
    

  15. 하위 번호에 다른 시스템과의 충돌이 있으면 글로벌 장치 마운트를 취소한 후 디스크 그룹을 가져오십시오.

    • 클러스터 노드에서 글로벌 장치 파일 시스템의 마운트를 해제하십시오.


      # umount /global/.devices/node@nodeid
      

    • 클러스터 노드에서 rootdg 디스크 그룹 하위 번호를 다시 지정하십시오.


      # vxdg reminor rootdg 100
      

  16. 노드를 종료하고 클러스터 모드로 다시 부트하십시오.


    # shutdown -g0 -i6 -y
    

8.3.5.1 예: 캡슐화된 루트(/) 파일 시스템 복원(VERITAS Volume Manager)

다음은 테이프 장치 /dev/rmt/0에서 노드 phys-schost-1로 캡슐화된 루트(/) 파일 시스템을 복원하는 예입니다.


[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Create an empty install-db file:]
# touch /a/etc/vx/reconfig.d/state.d/install-db
[Edit /etc/system on the temporary file system and remove or comment out the following entries:]
	# rootdev:/pseudo/vxio@0:0
	# set vxio:vol_rootdev_is_volume=1
[Edit /etc/vfstab on the temporary file system:]
Example: 
Change from-
/dev/vx/dsk/rootdg/rootvol /dev/md/rdsk/rootdg/rootvol / ufs 1 no-

Change to-
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
[Unmount the temporary file system, then check the file system:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-챙/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Update the disk ID:]
# scdidadm -R /dev/rdsk/c0t0d0
[Run vxinstall:]
# vxinstall
Choose to encapsulate the root disk.
[If there is a conflict in minor number, reminor the rootdg disk group:]
# umount /global/.devices/node@nodeid
# vxdg reminor rootdg 100
# shutdown -g0 -i6 -y

8.3.5.2 여기서 수행할 작업

캡슐화된 루트 디스크를 이중화하는 방법은 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에서 클러스터 파일 복원 단락을 참조하십시오.