Sun Cluster 3.0 시스템 관리 안내서

8장 클러스터 백업 및 복원

다음은 이 장에 있는 단계별 지시사항 목록입니다.

8.1 클러스터 파일 백업

표 8-1 작업 맵: 클러스터 파일 백업

작업 

지시사항에 대해서는, ...로 이동하십시오 

백업하려는 파일 시스템 이름을 찾으십시오. 

"8.1.1 백업할 파일 시스템 이름 찾기"

전체 백업을 포함해야 할 테이프 수를 산정하십시오. 

"8.1.2 전체 백업에 필요한 테이프 수 판별 방법"

루트 파일 시스템을 백업하십시오. 

"8.1.3 루트(/) 파일 시스템 백업 방법"

이중복사 또는 plexed 파일 시스템에 대해 온라인 백업을 수행하십시오. 

"8.1.4 이중복사에 대해 온라인 백업 수행 방법(Solstice DiskSuite)"

"8.1.5 볼륨에 대해 온라인 백업 수행 방법(VERITAS Volume Manager)"

8.1.1 백업할 파일 시스템 이름 찾기

이 프로시저를 사용하여 백업하려는 파일 시스템 이름을 판별하십시오.

  1. /etc/vfstab 파일 내용을 표시하십시오.

    이 명령을 실행하기 위해 수퍼유저가 될 필요가 없습니다.


    % more /etc/vfstab
    
  2. 백업하려는 파일 시스템의 이름을 마운트 지점 열에서 찾으십시오.

    파일 시스템을 백업할 때 이 이름을 사용하십시오.


    % more /etc/vfstab 
    

8.1.1.1 예제-백업할 파일 시스템 이름 찾기

다음 예에서, /etc/vfstab 파일에 나열된 사용 가능한 파일 시스템 이름이 표시됩니다.


% more /etc/vfstab
#device             device             mount  FS fsck  mount  mount
#to mount           to fsck            point  type     pass   at boot  options
#
#/dev/dsk/c1d0s2    /dev/rdsk/c1d0s2   /usr     ufs     1      yes      -
 f                  -                  /dev/fd  fd      -      no       -
 /proc              -                  /proc    proc    -      no       -
 /dev/dsk/c1t6d0s1  -                  -        swap    -      no       -
 /dev/dsk/c1t6d0s0  /dev/rdsk/c1t6d0s0 /        ufs     1      no       -
 /dev/dsk/c1t6d0s3  /dev/rdsk/c1t6d0s3 /cache   ufs     2      yes      -
 swap               -                  /tmp     tmpfs   -      yes      -

8.1.2 전체 백업에 필요한 테이프 수 판별 방법

이 프로시저를 사용하여 파일 시스템 백업해야 할 테이프 수를 산정하십시오.

  1. 백업하려는 클러스터 노드의 수퍼유저가 되십시오.

  2. 백업 크기를 바이트 수로 평가하십시오.


    # ufsdump S filesystem 
    
    S

    백업을 수행하는 데 필요한 바이트의 평가된 수를 표시합니다.

    filesystem

    백업하려는 파일 시스템의 이름을 지정합니다.

  3. 필요한 테이프 수를 보려면 테이프의 용량으로 평가된 크기를 나누십시오.

8.1.2.1 예제-필요한 테이프 수 판별

다음 예에서, 905,881,620바이트의 파일 시스템 크기는 4 GB 테이프(905,881,620 / 4,000,000,000)에맞습니다.


# ufsdump S /global/phys-schost-1
905881620

8.1.3 루트(/) 파일 시스템 백업 방법

이 프로시저를 사용하여 클러스터 노드의 루트(/) 파일 시스템을 백업하십시오. 백업 프로시저를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.

  1. 백업하려는 클러스터 노드의 수퍼유저가 되십시오.

  2. 백업될 노드에서 클러스터의 다른 노드에 실행하는 각 데이터 서비스를 전환하십시오.


    # scswitch -z -D disk-device-group -h node
    
    -z

    전환을 수행합니다.

    -D disk-device-group

    디스크 세트 또는 디스크 그룹 이름과 동일한 디스크 디바이스 그룹의 이름.

    -h node

    디스크 디바이스 그룹의 기본 역할을 하는 클러스터 노드의 이름.

  3. 노드를 정지하십시오.


    # shutdown -g0 -y
    
  4. ok 프롬프트에서, 클러스터가 아닌 모드에서 다시 시동하십시오.


    ok boot -x
    
  5. 루트 (/) 파일 시스템을 백업하십시오.

    • 루트 디스크가 요약되어 있지 않은 경우, 다음 명령을 사용하십시오.


      # ufsdump 0ucf dump-device /
      
    • 루트 디스크가 요약되어 있는 경우, 다음 명령을 사용하십시오.


      # ufsdump 0ucf dump-device /dev/vx/rdsk/rootvol
      

    자세한 내용은 ufsdump(1M) 매뉴얼 페이지를 참조하십시오.

  6. 클러스터 모드에서 노드를 다시 시동하십시오.


    # init 6
    

8.1.3.1 예제-루트(/) 파일 시스템 백업

다음 예에서, 루트(/) 파일 시스템은 테이프 디바이스 /dev/rmt/0로 백업됩니다.


# ufsdump 0ucf /dev/rmt/0 /
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 18 18:06:15 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/rdsk/c0t0d0s0 (phys-schost-1:/) to /dev/rmt/0
  DUMP: Mapping (Pass I) [regular files]
  DUMP: Mapping (Pass II) [directories]
  DUMP: Estimated 859086 blocks (419.48MB).
  DUMP: Dumping (Pass III) [directories]
  DUMP: Dumping (Pass IV) [regular files]
  DUMP: 859066 blocks (419.47MB) on 1 volume at 2495 KB/sec
  DUMP: DUMP IS DONE
  DUMP: Level 0 dump on Tue Apr 18 18:06:15 2000

8.1.4 이중복사에 대해 온라인 백업 수행 방법(Solstice DiskSuite)

이중복사된 메타 디바이스는 전체 이중복사를 마운트 해제하지 않거나 오프 라인으로 취하지 않고 백업될 수 있습니다. 하위 이중복사 중 하나는 일시적으로 오프 라인으로 취해져서 이중복사를 손실하지만, 시스템을 정지하거나 데이터에 대한 사용자 액세스를 거부하지 않고 백업이 완료된 후 곧 온라인으로 위치되어 재동기화될 수 있습니다. 온라인 백업을 수행하기 위해 이중복사를 사용하면 사용 중인 파일 시스템에 대한 "스냅샷"인 백업을 작성합니다.

프로그램이 lockfs 명령이 실행되기 전에 즉시 볼륨에 데이터를 쓰는 경우 문제가 발생할 수 있습니다. 이 문제를 방지하려면, 이 노드에서 실행되는 모든 서비스를 일시적으로 정지하십시오. 또한, 백업 프로시저를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.

  1. 백업하려는 클러스터 노드의 수퍼유저가 되십시오.

  2. metaset(1M) 명령을 사용하여 백업 볼륨에 대해 소유권을 갖고 있는 노드를 판별하십시오.


    # metaset -s setname
    
    -s setname

    디스크 세트 이름을 지정합니다.

  3. -w 옵션이 있는 lockfs(1M) 명령을 사용하여 쓰기로부터 파일 시스템을 잠그십시오.


    # lockfs -w mount-point 
    


    주 -

    UFS 파일 시스템이 이중복사에 있는 경우에만 파일 시스템을 잠가야 합니다. 예를 들어, 메타 디바이스가 데이터베이스 관리 소프트웨어 또는 일부 다른 특정 응용프로그램에 대해 원천 디바이스로 설정되어 있는 경우, lockfs 명령을 사용하는 데 필요하지 않습니다. 그러나 모든 버퍼와 잠금 액세스를 시작하기 위해 적절한 제공업체 의존 유틸리티를 실행하려 할 수 있습니다.


  4. metastat(1M) 명령을 사용하여 하위 이중복사의 이름을 판별하십시오.


    # metastat -s setname -p
    
    -p

    md.tab 파일과 유사한 형식으로 상태를 표시합니다.

  5. metadetach(1M) 명령을 사용하여 이중복사에서 오프 라인으로 하나의 하위 이중복사를 취하십시오.


    # metadetach -s setname mirror submirror
    

    주 -

    읽기는 다른 하위 이중복사에서 작성되기 위해 계속됩니다. 그러나, 오프 라인 하위 이중복사는 첫번째 쓰기가 이중복사로 작성된 후 곧 동기화되지 않습니다. 이 불일치는 오프 라인 하위 이중복사가 온라인으로 되어 있을 때 수정됩니다. fsck를 실행할 필요가 없습니다.


  6. -u 옵션을 가진 lockfs 명령을 사용하여 파일 시스템을 잠근 후 계속하려면 쓰기를 허용하십시오.


    # lockfs -u mount-point
    

  7. 파일 시스템 검사를 수행하십시오.


    # fsck /dev/md/diskset/rdsk/submirror
    
  8. 오프 라인 하위 이중복사를 테이프나 다른 매체로 백업하십시오.

    ufsdump(1M) 명령 또는 일반적으로 사용하는 다른 백업 유틸리티가 무엇이든 사용하십시오.


    주 -

    하위 이중복사에 대해 블록 디바이스(/dsk) 이름이 아닌 원천 디바이스(/rdsk) 이름을 사용하십시오.



    # ufsdump 0ucf dump-device submirror
    
  9. metattach(1M) 명령을 사용하여 메타 디바이스를 온라인으로 다시 위치시키십시오.


    # metattach -s setname mirror submirror
    

    메타 디바이스가 온라인으로 위치되면, 이중복사와 자동으로 재동기화됩니다.

  10. metastat 명령을 사용하여 하위 이중복사가 재동기화되는지 확인하십시오.


    # metastat -s setname mirror
    

8.1.4.1 예제-이중복사에 대해 온라인 백업 수행(Solstice DiskSuite)

다음 예에서, 클러스터 노드 phys-schost-1는 메타 세트 schost-1의 소유자이므로, 백업 프로시저는 phys-schost-1에서 수행됩니다. 이중복사 /dev/md/schost-1/dsk/d0는 하위 이중복사 d10, d20d30으로 구성됩니다.


[Determine the owner of the metaset:]
# metaset -s schost-1
Set name = schost-1, Set number = 1
Host                Owner
  phys-schost-1     Yes 
...
[Lock the file system from writes:] 
# lockfs -w /global/schost-1
[List the submirrors:]
# metastat -s schost-1 -p
schost-1/d0 -m schost-1/d10 schost-1/d20 schost-1/d30 1
schost-1/d10 1 1 d4s0
schost-1/d20 1 1 d6s0
schost-1/d30 1 1 d8s0
[Take a submirror offline:]
# metadetach -s schost-1 d0 d30
[Unlock the file system:]
# lockfs -u /
[Check the file system:]
# fsck /dev/md/schost-1/rdsk/d30
[Copy the submirror to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/md/schost-1/rdsk/d30
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/md/schost-1/rdsk/d30 to /dev/rdsk/c1t9d0s0.
  ...
  DUMP: DUMP IS DONE
[Bring the submirror back online:]
# metattach -s schost-1 d0 d30
schost-1/d0: submirror schost-1/d30 is attached
[Resync the submirror:]
# metastat -s schost-1 d0
schost-1/d0: Mirror
    Submirror 0: schost-0/d10
      State: Okay         
    Submirror 1: schost-0/d20
      State: Okay
    Submirror 2: schost-0/d30
      State: Resyncing
    Resync in progress: 42 % done
    Pass: 1
    Read option: roundrobin (default)
...

8.1.5 볼륨에 대해 온라인 백업 수행 방법(VERITAS Volume Manager)

VERITAS 볼륨 관리자는 이중복사된 볼륨을 plex로 식별합니다. plex는 전체 볼륨을 마운트 해제하지 않거나 오프 라인으로 취하지 않고 백업될 수 있습니다. 이것은 시스템을 정지하거나 데이터에 대한 사용자 액세스를 거부하지 않고 볼륨에 대한 스냅샷 사본을 작성한 후 이 일시적인 볼륨을 백업하여 완료됩니다.

백업 프로시저를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.

  1. 클러스터의 노드에 로그온한 후, 클러스터에 있는 디스크 그룹의 현재 1차 노드에 대해 수퍼유저가 되십시오.

  2. 디스크 그룹 정보를 나열하십시오.


    # vxprint -g diskgroup
    
  3. scstat(1M)를 실행하여 어느 노드에 현재 가져온 디스크 그룹이 있는지 보십시오. 디스크 그룹은 디스크 그룹에 대한 1차 노드임을 지시합니다.


    # scstat -D
    
    -D

    모든 디스크 디바이스 그룹에 대한 상태를 보여줍니다.

  4. vxassist(1M) 명령을 사용하여 볼륨에 대한 스냅샷을 작성하십시오.


    # vxassist -g diskgroup snapstart volume
    

    주 -

    스냅샷 작성은 볼륨의 크기에 따라 시간이 오래 걸릴 수 있습니다.


  5. vxprint(1M) 명령을 사용하여 새 볼륨이 작성되었는지 확인하십시오.


    # vxprint -g diskgroup
    

    스냅샷이 완료되면, Snapdone의 상태가 선택된 디스크 그룹의 State 필드에 표시됩니다.

  6. scswitch(1M)를 사용하여 파일 시스템에 액세스하고 있는 모든 데이터 서비스를 정지하십시오.


    # scswitch -z -g nfs-rg -h ""
    

    주 -

    데이터 서비스 정지는 데이터 파일 시스템이 적절히 백업되는지 확인하는데 추천됩니다. 데이터 서비스가 실행되고 있지 않는 경우, 단계 6단계 8를 수행할 필요가 없습니다.


  7. bkup-vol이라는 백업 볼륨을 작성한 후 vxassist 명령을 사용하여 스냅샷 볼륨을 첨부하십시오.


    # vxassist -g diskgroup snapshot volume bkup-vol
    
  8. scswitch 명령을 사용하여 단계 6에서 정지된 모든 데이터 서비스를 재시작하십시오.


    # scswitch -z -g nfs-rg -h nodename
    
  9. vxprint 명령을 사용하여 볼륨이 이제 새 볼륨 bkup-vol에 첨부되어 있는지 확인하십시오.


    # vxprint -g diskgroup
    
  10. scconf(1M) 명령을 사용하여 디스크 그룹 구성 변경을 등록하십시오.


    # scconf -c -D name=diskgroup,sync
    
  11. fsck 명령을 사용하여 백업 볼륨을 검사하십시오.


    # fsck -y /dev/vx/rdsk/diskgroup/bkup-vol
    

  12. 테이프 또는 다른 매체에 볼륨 bkup-vol을 복사하도록 백업을 수행하십시오.

    ufsdump(1M) 명령 또는 일반적으로 사용하는 백업 유틸리티를 사용하십시오.


    # ufsdump 0ucf dump-device /dev/vx/dsk/diskgroup/bkup-vol
    
  13. vxedit(1M)를 사용하여 임시 볼륨을 제거하십시오.


    # vxedit -rf rm bkup-vol
    
  14. scconf 명령을 사용하여 디스크 그룹 구성 변경을 등록하십시오.


    # scconf -c -D name=disk-group,sync
    

8.1.5.1 예제-볼륨에 대해 온라인 백업 수행(VERITAS Volume Manager)

다음 예에서, 클러스터 노드 phys-schost-2는 메타 세트 디스크 그룹 schost-1의 소유자이므로, 백업 프로시저는 phys-schost-2에서 수행됩니다. 볼륨 /vo101이 볼륨된 다음, 새 볼륨 bkup-vol과 연관됩니다.


[Become superuser on the primary node.]
[Identify the current primary node for the disk group:]
# scstat -D
-- Device Group Servers --
                         Device Group     Primary           Secondary
                         ------------     -------           ---------
 Device group servers:   rmt/1            -                 -
 Device group servers:   schost-1         phys-schost-2     phys-schost-1
-- Device Group Status --
                             Device Group        Status              
                             ------------        ------              
 Device group status:        rmt/1               Offline
 Device group status:        schost-1            Online
[List the disk group information:]
# vxprint -g schost-1
TY NAME            ASSOC        KSTATE    LENGTH   PLOFFS   STATE    TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
 
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
[Start the snapshot operation:]
# vxassist -g schost-1 snapstart vol01
[Verify the new volume was created:]
# vxprint -g schost-1
TY NAME            ASSOC        KSTATE    LENGTH   PLOFFS   STATE    TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
  
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
pl vol01-04       vol01      ENABLED  208331   -      SNAPDONE -      -
sd schost-105-01  vol01-04   ENABLED  104139   0      -        -      -
sd schost-106-01  vol01-04   ENABLED  104139   0      -        -      -
[Stop data services, if necessary:]
# scswitch -z -g nfs-rg -h ""
[Create a copy of the volume:]
# vxassist -g schost-1 snapshot vol01 bkup-vol
[Restart data services, if necessary:]
# scswitch -z -g nfs-rg -h phys-schost-1
[Verify bkup-vol was created:]
# vxprint -g schost-1
TY NAME           ASSOC      KSTATE   LENGTH   PLOFFS  STATE   TUTIL0 PUTIL0
dg schost-1       schost-1    -        -        -      -        -      -
 
dm schost-101     c1t1d0s2    -        17678493 -      -        -      -
dm schost-102     c1t2d0s2    -        17678493 -      -        -      -
dm schost-103     c2t1d0s2    -        8378640  -      -        -      -
dm schost-104     c2t2d0s2    -        17678493 -      -        -      -
dm schost-105     c1t3d0s2    -        17678493 -      -        -      -
dm schost-106     c2t3d0s2    -        17678493 -      -        -      -
 
v  bkup-vol       gen         ENABLED  204800   -      ACTIVE   -      -
pl bkup-vol-01    bkup-vol    ENABLED  208331   -      ACTIVE   -      -
sd schost-105-01  bkup-vol-01 ENABLED  104139   0      -        -      -
sd schost-106-01  bkup-vol-01 ENABLED  104139   0      -        -      -
 
v  vol01          gen         ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01    ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01    ENABLED  104139   0      -        -      -
pl vol01-02       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02    ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02    ENABLED  104139   0      -        -      -
pl vol01-03       vol01       ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03    ENABLED  5        LOG    -        -      -
[Synchronize the disk group with cluster framework:]
# scconf -c -D name=schost-1,sync
[Check the file systems:]
# fsck -y /dev/vx/rdsk/schost-1/bkup-vol
[Copy bkup-vol to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/vx/rdsk/schost-1/bkup-vol
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/vx/dsk/schost-2/bkup-vol to /dev/rmt/0.
  ...
  DUMP: DUMP IS DONE
[Remove the bkup-volume:]
# vxedit -rf rm bkup-vol
[Synchronize the disk group:]
# scconf -c -D name=schost-1,sync

8.2 클러스터 파일 복원 개요

ufsrestore 명령은 ufsdump 명령을 사용하여 작성된 백업으로부터 현재 작업 디렉토리와 관련된 디스크로 파일을 복사합니다. ufsrestore를 사용하여 레벨 0 덤프와 그 다음에 나오는 증분 덤프에서 전체 파일 시스템 계층 구조를 재로드하거나 모든 덤프 테이프에서 하나 이상의 단일 파일을 복원할 수 있습니다. ufsrestore가 수퍼유저로 실행되는 경우, 파일은 원래 소유자, 마지막 수정 시간 및 모드(허용)와 함께 복원됩니다.

파일 또는 시스템 복원을 시작하기 전에, 다음 사항을 알아야 합니다.

8.3 클러스터 파일 복원

표 8-2 작업 맵: 클러스터 파일 복원

작업 

지시사항에 대해서는, ...로 이동하십시오 

Solstice DiskSuite의 경우, Solaris 복원 프로시저를 따라 파일을 대화식으로 복원하십시오. 

"8.3.1 대화식으로 개별 파일을 복원하는 방법(Solstice DiskSuite)"

Solstice DiskSuite의 경우, 루트(/) 파일 시스템을 복원하십시오.

"8.3.2 루트(/) 파일 시스템을 복원하는 방법(Solstice DiskSuite)"

 

"8.3.3 메타 디바이스에 있었던 루트(/) 파일 시스템 복원 방법(Solstice DiskSuite)"

VERITAS Volume Manager의 경우, 요약되지 않은 루트(/) 파일 시스템을 복원하십시오. 

"8.3.4 요약되지 않은 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager)"

VERITAS Volume Manager의 경우, 요약된 루트(/) 파일 시스템을 복원하십시오. 

"8.3.5 요약된 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager)"

8.3.1 대화식으로 개별 파일을 복원하는 방법(Solstice DiskSuite)

이 프로시저를 사용하여 하나 이상의 개별 파일을 복원하십시오. 복원 프로시저를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.

  1. 복원하려는 클러스터 노드의 수퍼유저가 되십시오.

  2. 복원될 파일을 사용하고 있는 모든 데이터 서비스를 정지하십시오.


    # scswitch -z -g rgname -h ""
    
  3. ufsrestore 명령을 사용하여 파일을 복원하십시오.

8.3.2 루트(/) 파일 시스템을 복원하는 방법(Solstice DiskSuite)

이 프로시저를 사용하여 잘못된 루트 디스크를 대체한 후와 같이 루트(/) 파일 시스템을 새 디스크에 복원하십시오. 복원되고 있는 노드는 시동되어서는 안됩니다. 복원 프로시저를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.


주 -

실패한 디스크와 동일한 형식을 사용하여 새 디스크를 구획해야 하기 때문에, 이 프로시저를 시작하기 전에 구획 계획을 식별한 후 적절할 때 파일 시스템을 재작성하십시오.


  1. 복원하려는 노드가 아닌 클러스터 노드의 수퍼유저가 되십시오.

  2. metaset(1M) 명령을 사용하여 모든 메타 세트에서 복원되고 있는 노드의 호스트 이름을 제거하십시오. 제거하려는 노드가 아닌 메타 세트에 있는 노드에서 이 명령을 실행하십시오.


    # metaset -s setname -f -d -h node
    
    -s setname

    디스크 세트 이름을 지정합니다.

    -f

    강제 실행.

    -d

    디스크 세트로부터 삭제합니다.

    -h node

    디스크 세트로부터 삭제할 노드의 이름을 지정합니다.

  3. 루트(/) 파일 시스템이 복원될 노드의 실패한 디스크를 대체하십시오.

    서버와 함께 제공된 문서의 디스크 대체 프로시저를 참조하십시오.

  4. 복원되고 있는 노드를 시동하십시오.

    • Solaris CD-ROM을 사용하고 있는 경우, 다음 명령을 실행하십시오.


      ok boot cdrom -s
      
    • JumpStartTM 서버를 사용하고 있는 경우, 다음 명령을 실행하십시오.


      ok boot net -s
      
  5. format(1M) 명령을 사용하여 모든 구획을 작성한 후 루트 디스크에서 교환하십시오.

    실패한 디스크에 있었던 원래 구획 계획을 재작성하십시오.

  6. newfs(1M) 명령을 사용하여 적절할 때 루트(/) 파일 시스템 및 다른 파일 시스템을 작성하십시오.

    실패한 디스크에 있었던 원래 파일 시스템을 재작성하십시오.


    주 -

    /global/.devices/node@nodeid 파일 시스템 작성을 확인하십시오.


  7. 임시 마운트 지점에 루트(/) 파일 시스템을 마운트하십시오.


    # mount device temp-mount-point
    
  8. 다음 명령을 사용하여 루트(/) 파일 시스템을 복원하십시오.


    # cd temp-mount-point
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mount-point
    # fsck raw-disk-device
    

    파일 시스템이 이제 복원되어 있습니다.

  9. 새 디스크에 새 시동 블록을 설치하십시오.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    
  10. 단일 사용자 모드에서 노드를 다시 시동하십시오.


    # reboot -- "-s"
    
  11. scdidadm 명령을 사용하여 디스크 ID를 대체하십시오.


    # scdidadm -R rootdisk
    
  12. metadb(1M) 명령을 사용하여 상태 데이터베이스 복제본을 재작성하십시오.


    # metadb -c copies -af raw-disk-device
    
    -c copies

    작성할 복제본 수를 지정합니다.

    -f raw-disk-device

    복제본을 작성할 원천 디스크 디바이스.

    -a

    복제본을 추가합니다.

  13. 클러스터 모드에서 노드를 다시 시동하십시오.

    1. 다시 시동을 시작하십시오.


      # reboot
      

      이 시동 중에 다음 명령으로 끝나는 오류 또는 경고 메시지를 볼 수 있습니다.


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):
    2. CTRL-d를 눌러 다중 사용자 모드로 시동하십시오.

  14. 복원된 노드가 아닌 클러스터 노드에서, metaset(1M) 명령을 사용하여 모든 메타 세트에 복원된 노드를 추가하십시오.


    phys-schost-2# metaset -s setname -a -h node
    
    -a

    디스크 세트를 작성한 후 여기에 호스트를 추가합니다.

    노드는 클러스터 모드로 다시 시동됩니다. 클러스터를 사용할 준비가 되어 있습니다.

8.3.2.1 예제-루트(/) 파일 시스템 복원(Solstice DiskSuite)

다음 예에서는 테이프 디바이스 /dev/rmt/0에서 노드 phys-schost-1로 복원된 루트(/) 파일 시스템을 보여줍니다. metaset 명령은 제거된 후 나중에 디스크 세트 schost-1에 노드 phys-schost-1을 추가하기 위해 클러스터 phys-schost-2에 있는 또다른 노드에서 실행됩니다. 다른 모든 명령은 phys-schost-1에서 실행됩니다. 새 시동 블록은 /dev/rdsk/c0t0d0s0에 작성되고, 세 개의 상태 데이터베이스 복제본은 /dev/rdsk/c0t0d0s4에 재작성됩니다.


[Become superuser on a cluster node other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to recreate partitions and file systems.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Replace the disk ID:]
# scdidadm -R /dev/dsk/c0t0d0
[Recreate state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Press CTL-d to boot into multiuser mode.
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

8.3.3 메타 디바이스에 있었던 루트(/) 파일 시스템 복원 방법(Solstice DiskSuite)

이 프로시저를 사용하여 백업이 수행되었을 때 메타 디바이스에 있었던 루트(/) 파일 시스템을 복원하십시오. 루트 디스크가 손상되어 새 디스크로 대체될 때와 같은 환경에서 이 프로시저를 수행하십시오. 복원되고 있는 노드는 시동되어서는 안됩니다. 복원 프로시저를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.


주 -

실패한 디스크와 동일한 형식을 사용하여 새 디스크를 구획해야 하기 때문에, 이 프로시저를 시작하기 전에 구획 계획을 식별한 후 적절할 때 파일 시스템을 재작성하십시오.


  1. 복원하려는 노드가 아닌 메타 세트에 대한 액세스가 있는 클러스터 노드의 수퍼유저가 되십시오.

  2. metaset(1M) 명령을 사용하여 모든 메타 세트에서 복원되고 있는 노드의 호스트 이름을 제거하십시오.


    # metaset -s setname -f -d -h node
    
    -s setname

    메타 세트 이름을 지정합니다.

    -f

    강제 실행.

    -d

    메타 세트로부터 삭제합니다.

    -h node

    메타 세트로부터 삭제할 노드의 이름을 지정합니다.

  3. 루트(/) 파일 시스템이 복원될 노드의 실패한 디스크를 대체하십시오.

    서버와 함께 제공된 문서의 디스크 대체 프로시저를 참조하십시오.

  4. 복원되고 있는 노드를 시동하십시오.

    • Solaris CD-ROM을 사용하고 있는 경우, 다음 명령을 실행하십시오.


      ok boot cdrom -s
      
    • JumpStart 서버를 사용하고 있는 경우, 다음 명령을 실행하십시오.


      ok boot net -s
      
  5. format(1M) 명령을 사용하여 모든 구획을 작성한 후 루트 디스크에서 교환하십시오.

    실패한 디스크에 있었던 원래 구획 계획을 재작성하십시오.

  6. newfs(1M) 명령을 사용하여 적절할 때 루트(/) 파일 시스템 및 다른 파일 시스템을 작성하십시오.

    실패한 디스크에 있었던 원래 파일 시스템을 재작성하십시오.


    주 -

    /global/.devices/node@nodeid 파일 시스템 작성을 확인하십시오.


  7. 임시 마운트 지점에 루트(/) 파일 시스템을 마운트하십시오.


    # mount device temp-mount-point
    

  8. 다음 명령을 사용하여 루트(/) 파일 시스템을 복원하십시오.


    # cd  temp-mount-point
    # ufsrestore rvf dump-device
    # rm restoresymtable
    

  9. 새 디스크에 새 시동 블록을 설치하십시오.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    
  10. MDD 루트 정보에 대한 /temp-mount-point/etc/system 파일에 있는 행을 제거하십시오.


    * Begin MDD root info (do not edit)
    forceload: misc/md_trans
    forceload: misc/md_raid
    forceload: misc/md_mirror
    forceload: misc/md_hotspares
    forceload: misc/md_stripe
    forceload: drv/pcipsy
    forceload: drv/glm
    forceload: drv/sd
    rootdev:/pseudo/md@0:0,10,blk
    * End MDD root info (do not edit)

  11. /temp-mount-point/etc/vfstab 파일을 편집하여 메타 디바이스에서 메타 디바이스의 일부인 루트 디스크에 있는 각 파일 시스템에 대한 해당 보통 슬라이스로 루트 항목을 변경하십시오.


    Example: 
    Change from-
    /dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -
     
    Change to-
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -
  12. 임시 파일 시스템을 마운트 취소한 후 원천 디스크 디바이스를 검사하십시오.


    # cd /
    # umount  temp-mount-point
    # fsck raw-disk-device
    
  13. 단일 사용자 모드에서 노드를 다시 시동하십시오.


    # reboot -- "-s"
    
  14. scdidadm 명령을 사용하여 디스크 ID를 대체하십시오.


    # scdidadm -R rootdisk
    
  15. metadb(1M) 명령을 사용하여 상태 데이터베이스 복제본을 재작성하십시오.


    # metadb -c copies -af raw-disk-device
    
    -c copies

    작성할 복제본 수를 지정합니다.

    -af raw-disk-device

    초기 상태 데이터베이스 복제본을 이름 지정된 원천 디스크 디바이스에 작성합니다.

  16. 클러스터 모드에서 노드를 다시 시동하십시오.

    1. 다시 시동을 시작하십시오.


      # reboot
      

      이 시동 중에 다음 명령으로 끝나는 오류 또는 경고 메시지를 볼 수 있습니다.


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):
    2. CTRL-d를 눌러 다중 사용자 모드로 시동하십시오.

  17. 복원된 노드가 아닌 클러스터 노드에서, metaset(1M) 명령을 사용하여 모든 메타 세트에 복원된 노드를 추가하십시오.


    phys-schost-2# metaset -s setname -a -h node
    
    -a

    메타 세트를 추가(작성)합니다.

    Solstice DiskSuite 문서에 따라 루트(/)에 대해 메타 디바이스/이중복사를 설정하십시오.

    노드는 클러스터 모드로 다시 시동됩니다. 클러스터를 사용할 준비가 되어 있습니다.

8.3.3.1 예제-메타 디바이스에 있었던 루트(/) 파일 시스템 복원 방법(Solstice DiskSuite)

다음 예에서는 테이프 디바이스 /dev/rmt/0에서 노드 phys-schost-1로 복원된 루트(/) 파일 시스템을 보여줍니다. metaset 명령은 제거된 후 나중에 메타 세트 schost-1에 노드 phys-schost-1을 추가하기 위해 클러스터 phys-schost-2에 있는 또다른 노드에서 실행됩니다. 다른 모든 명령은 phys-schost-1에서 실행됩니다. 새 시동 블록은 /dev/rdsk/c0t0d0s0에 작성되고, 세 개의 상태 데이터베이스 복제본은 /dev/rdsk/c0t0d0s4에 재작성됩니다.


[Become superuser on a cluster node with access to the metaset,
other than the node to be restored]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to recreate partitions and file systems.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Remove the lines in /temp-mount-point/etc/system file for MDD root information:]
* Begin MDD root info (do not edit)
forceload: misc/md_trans
forceload: misc/md_raid
forceload: misc/md_mirror
forceload: misc/md_hotspares
forceload: misc/md_stripe
forceload: drv/pcipsy
forceload: drv/glm
forceload: drv/sd
rootdev:/pseudo/md@0:0,10,blk
* End MDD root info (do not edit)
[Edit the /temp-mount-point/etc/vfstab file]
Example: 
Change from-
/dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -
 
Change to-
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -
[Unmount the temporary file system and check the raw disk device:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Replace the disk ID:]
# scdidadm -R /dev/dsk/c0t0d0
[Recreate state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Type CTRL-d to boot into multiuser mode.
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

8.3.4 요약되지 않은 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager)

이 프로시저를 사용하여 요약되지 않은 루트(/) 파일 시스템을 노드에 복원하십시오. 복원되고 있는 노드는 시동되어서는 안됩니다. 복원 프로시저를 수행하기 전에 클러스터가 문제 없이 실행되고 있는지 확인하십시오.


주 -

실패한 디스크와 동일한 형식을 사용하여 새 디스크를 구획해야 하기 때문에, 이 프로시저를 시작하기 전에 구획 계획을 식별한 후 적절할 때 파일 시스템을 재작성하십시오.


  1. 루트 파일 시스템이 복원될 노드의 실패한 디스크를 대체하십시오.

    서버와 함께 제공된 문서의 디스크 대체 프로시저를 참조하십시오.

  2. 복원되고 있는 노드를 시동하십시오.

    • Solaris CD-ROM을 사용하고 있는 경우, 다음 명령을 실행하십시오.


      ok boot cdrom -s
      

    • JumpStart server을 사용하고 있는 경우, 다음 명령을 실행하십시오.


      ok boot net -s
      

  3. format(1M) 명령을 사용하여 모든 구획을 작성한 후 루트 디스크에서 교환하십시오.

    실패한 디스크에 있었던 원래 구획 계획을 재작성하십시오.

  4. newfs(1M) 명령을 사용하여 적절할 때 루트(/) 파일 시스템 및 다른 파일 시스템을 작성하십시오.

    실패한 디스크에 있었던 원래 파일 시스템을 재작성하십시오.


    주 -

    /global/.devices/node@nodeid 파일 시스템 작성을 확인하십시오.


  5. 임시 마운트 지점에 루트(/) 파일 시스템을 마운트하십시오.


    # mount device temp-mount-point
    
  6. 백업에서 루트(/) 파일 시스템을 복원하고, 파일 시스템을 마운트 취소한 후 검사하십시오.


    # cd temp-mount-point
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mount-point
    # fsck raw-disk-device
    

    파일 시스템이 이제 복원되어 있습니다.

  7. 새 디스크에 새 시동 블록을 설치하십시오.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    
  8. 단일 사용자 모드로 노드를 다시 시동하십시오.

    1. 다시 시동을 시작하십시오.


      # reboot -- "-s"

      이 시동 중에 다음 명령으로 끝나는 오류 또는 경고 메시지를 볼 수 있습니다.


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):
    2. 루트 암호를 입력하십시오.

  9. 루트 디스크 그룹이 루트 디스크의 단일 슬라이스에 있는지 판별하십시오.

    • 단일 슬라이스에 있으면, 루트 디스크 그룹을 작성한 후 설정하십시오.


      # vxdctl init
      # vxdg init rootdg
      # vxdctl add disk diskslice type=simple
      # vxdisk -f init diskslice type=simple
      # vxdg adddisk diskslice
      # vxdctl enable
      
    • 단일 슬라이스에 없으면, 단계 10로 진행하십시오.

  10. scdidadm 명령을 사용하여 디스크 ID를 갱신하십시오.


    # scdidadm -R /dev/rdsk/diskdevice
  11. CTRL-d를 눌러 다중 사용자 모드를 계속하십시오.

    노드는 클러스터 모드로 다시 시동됩니다. 클러스터를 사용할 준비가 되어 있습니다.

8.3.4.1 예제-요약되지 않은 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager)

다음 예에서는 테이프 디바이스 /dev/rmt/0에서 노드 phys-schost-1로 복원된 요약되지 않은 루트(/) 파일 시스템을 보여줍니다.


[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[If the root disk group is on a single slice on the root disk,
create the new root disk group]
# vxdctl init
# vxdg init rootdg
# vxdctl add disk c0t0d0s4 type=simple
# vxdisk -f init c0t0d0s4 type=simple
# vxdg adddisk c0t0d0s4
# vxdctl enable
[Update the disk ID:]
# scdidadm -R /dev/rdsk/c0t0d0
[Press CTRL-d to resume in multiuser mode]

8.3.5 요약된 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager)

이 프로시저를 사용하여 요약된 루트(/) 파일 시스템을 노드에 복원하십시오. 복원되고 있는 노드는 시동되어서는 안됩니다. 복원 프로시저를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.


주 -

실패한 디스크와 동일한 형식을 사용하여 새 디스크를 구획해야 하기 때문에, 이 프로시저를 시작하기 전에 구획 계획을 식별한 후 적절할 때 파일 시스템을 재작성하십시오.


  1. 루트 파일 시스템이 복원될 노드의 실패한 디스크를 대체하십시오.

    서버와 함께 제공된 문서의 디스크 대체 프로시저를 참조하십시오.

  2. 복원되고 있는 노드를 시동하십시오.

    • Solaris CD-ROM을 사용하고 있는 경우, 다음 명령을 실행하십시오.


      ok boot cdrom -s
      
    • JumpStart 서버를 사용하고 있는 경우, 다음 명령을 실행하십시오.


      ok boot net -s
      
  3. format(1M) 명령을 사용하여 모든 구획을 작성한 후 루트 디스크에서 교환하십시오.

    실패한 디스크에 있었던 원래 구획 계획을 재작성하십시오.

  4. newfs(1M) 명령을 사용하여 적절할 때 루트(/) 파일 시스템 및 다른 파일 시스템을 작성하십시오.

    실패한 디스크에 있었던 원래 파일 시스템을 재작성하십시오.


    주 -

    /global/.devices/node@nodeid 파일 시스템 작성을 확인하십시오.


  5. 임시 마운트 지점에 루트(/) 파일 시스템을 마운트하십시오.


    # mount device temp-mount-point
  6. 백업에서 루트(/) 파일 시스템을 복원하십시오.


    # cd temp-mount-point
    # ufsrestore rvf dump-device
    # rm restoresymtable
    
  7. 비어 있는 install-db 파일을 작성하십시오.

    이렇게 하면 다음 번 재시동 때 VxVM 설치 모드에 노드를 놓습니다.


    # touch /temp-mount-point/etc/vx/reconfig.d/state.d/install-db
    
  8. /temp-mount-point/etc/system 파일에서 다음 항목을 제거하거나 설명하십시오.


    * rootdev:/pseudo/vxio@0:0
    * set vxio:vol_rootdev_is_volume=1
  9. /temp-mount-point/etc/vfstab 파일을 편집한 후 /dev/dsk/c0t0d0s0와 같은 루트 디스크에 대해 모든 VxVM 마운트 지점을 표준 디스크 디바이스로 대체하십시오.


    Example: 
    Change from-
    /dev/vx/dsk/rootdg/rootvol /dev/md/rdsk/rootdg/rootvol /      ufs   1     no -
     
    Change to-
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
  10. 임시 파일 시스템을 마운트 취소한 후 파일 시스템을 검사하십시오.


    # cd /
    # umount temp-mount-point
    # fsck raw-disk-device
    
  11. 새 디스크에 시동 블록을 설치하십시오.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
  12. 단일 사용자 모드에서 노드를 다시 시동하십시오.


    # reboot -- "-s"
    
  13. scdidadm(1M)을 사용하여 디스크 ID를 갱신하십시오.


    # scdidadm -R /dev/rdsk/c0t0d0
  14. vxinstall을 실행하십시오.


    # vxinstall
    

    디스크를 캡슐화하도록 선택한 후 다시 시동하십시오.

  15. 2류 번호에 다른 시스템과의 충돌이 있는 경우, 글로벌 디바이스를 마운트 취소한 후 디스크 그룹을 가져오십시오.

    • 글로벌 디바이스 파일 시스템을 클러스터 노드에 마운트 취소하십시오.


      # umount /global/.devices/node@nodeid
      
    • 클러스터 노드에 rootdg 디스크 그룹을 가져오십시오.


      # vxdg reminor rootdg 100
      

  16. # shutdown -g0 -i 6 -y
    
    클러스터 모드에서 노드를 시스템 종료하고 다시 시동하십시오.

8.3.5.1 예제-요약된 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager)

다음 예에서는 테이프 디바이스 /dev/rmt/0에서 노드 phys-schost-1로 복원된 요약된 루트(/) 파일 시스템을 보여줍니다.


[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Create an empty install-db file:]
# touch /a/etc/vx/reconfig.d/state.d/install-db
[Edit /etc/system on the temporary file system and remove or comment out the following entries:]
	# rootdev:/pseudo/vxio@0:0
	# set vxio:vol_rootdev_is_volume=1
[Edit /etc/vfstab on the temporary file system:]
Example: 
Change from-
/dev/vx/dsk/rootdg/rootvol /dev/md/rdsk/rootdg/rootvol / ufs 1 no-
 
Change to-
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
[Unmount the temporary file system, then check the file system:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Update the disk ID:]
# scdidadm -R /dev/rdsk/c0t0d0
[Run vxinstall:]
# vxinstall
Choose to encapsulate the root disk.
[If there is a conflict in minor number, reminor the rootdg disk group:]
# umount /global/.devices/node@nodeid
# vxdg reminor rootdg 100
# shutdown -g0 -i 6 -y