Sun Cluster 3.0 12/01 시스템 관리 안내서

8.3 클러스터 파일 복원

표 8-2 작업 맵: 클러스터 파일 복원

작업 

참고 항목 

Solstice DiskSuite의 경우에 Solaris 복원 절차에 따라 대화식으로 파일 복원 

"8.3.1 대화식으로 각 파일을 복원하는 방법(Solstice DiskSuite)"

Solstice DiskSuite의 경우에 루트(/) 파일 시스템 복원

"8.3.2 루트(/) 파일 시스템을 복원하는 방법(Solstice DiskSuite)"

 

"8.3.3 메타 장치에 있던 루트(/) 파일 시스템을 복원하는 방법(Solstice DiskSuite)"

VERITAS Volume Manager의 경우에 캡슐화되지 않은 루트(/) 파일 시스템 복원 

"8.3.4 캡슐화되지 않은 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager)"

VERITAS Volume Manager의 경우에 캡슐화된 루트(/) 파일 시스템 복원 

"8.3.5 캡슐화된 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager)"

8.3.1 대화식으로 각 파일을 복원하는 방법(Solstice DiskSuite)

하나 이상의 파일을 각각 복원하려면 이 절차를 사용하십시오. 복원 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.

  1. 복원하려는 클러스터 노드의 수퍼유저가 되십시오.

  2. 복원하는 파일을 사용하는 데이터 서비스를 모두 중지시키십시오.


    # scswitch -z -g resource-group -h ""
    

  3. ufsrestore 명령을 사용하여 파일을 복원하십시오.

8.3.2 루트(/) 파일 시스템을 복원하는 방법(Solstice DiskSuite)

문제가 있는 루트 디스크를 교체한 경우처럼 루트(/) 파일 시스템을 새 디스크에 복원하려면 이 절차를 사용하십시오. 복원하고 있는 노드를 부트하면 안됩니다. 복원 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.


주 -

장애가 발생한 디스크와 동일한 형식을 사용하여 새 디스크를 분할해야 하기 때문에 이 절차를 시작하기 전에 파티션 구조를 확인하고 필요한 파일 시스템을 다시 만드십시오.


  1. 복원하려는 노드를 제외한 노드 중에서 메타 세트에 액세스할 수 있는 클러스터 노드에 대하여 수퍼유저가 되십시오.

  2. 모든 메타 세트에서 복원되는 노드의 호스트 이름을 제거하십시오.

    제거하는 노드가 아닌 메타 세트의 노드에서 이 명령을 실행하십시오.


    # metaset -s setname -f -d -h nodelist
    

    -s setname

    디스크 세트 이름을 지정합니다.

    -f

    강제로 실행합니다.

    -d

    디스크 세트에서 삭제합니다.

    -h nodelist

    디스크 세트에서 삭제할 노드의 이름을 지정합니다.

  3. 루트(/) 파일 시스템을 복원할 노드에서 장애가 발생한 디스크를 교체하십시오.

    서버와 함께 제공되는 문서에서 디스크를 교체하는 절차를 참조하십시오.

  4. 복원되고 있는 노드를 부트하십시오.

    • Solaris CD-ROM을 사용하는 경우에는 다음 명령을 실행하십시오.


      ok boot cdrom -s
      

    • Solaris JumpStartTM 서버를 사용하는 경우에는 다음 명령을 실행하십시오.


      ok boot net -s
      

  5. format(1M) 명령을 사용하여 루트 디스크에 모든 파티션과 스왑 공간을 만드십시오.

    장애가 발생한 디스크와 동일한 파티션 구조를 다시 만드십시오.

  6. newfs(1M) 명령을 사용하여 루트(/) 파일 시스템과 필요한 다른 파일 시스템을 만드십시오.

    장애가 발생한 디스크와 동일한 파일 시스템을 다시 만드십시오.


    주 -

    /global/.devices/node@nodeid 파일 시스템을 만들어야 합니다.


  7. 임시 마운트 포인트에 루트(/) 파일 시스템을 마운트하십시오.


    # mount device temp-mountpoint
    

  8. 다음 명령을 사용하여 루트(/) 파일 시스템을 복원하십시오.


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    

    이제 파일 시스템이 복원되었습니다.

  9. 새 디스크에 새 부트 블록을 설치하십시오.


    # /usr/sbin/installboot /usr/platform/`uname -챙/lib/fs/ufs/bootblk raw-disk-device
    

  10. 단일 사용자 모드로 노드를 다시 부트하십시오.


    # reboot -- "-s"
    

  11. scdidadm 명령을 사용하여 디스크 ID를 교체하십시오.


    # scdidadm -R rootdisk
    

  12. metadb(1M) 명령을 사용하여 상태 데이터베이스 복제를 다시 만드십시오.


    # metadb -c copies -af raw-disk-device
    

    -c copies

    만들 복제 수를 지정합니다.

    -f raw-disk-device

    복제를 만들 원시 디스크 장치.

    -a

    복제를 추가합니다.

  13. 클러스터 모드로 노드를 다시 부트하십시오.

    1. 다시 부트하십시오.


      # reboot
      

      이 부트 중에 다음과 같은 명령으로 끝나는 오류 또는 경고 메시지가 나타날 수 있습니다.


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. CTRL-d를 눌러 복수 사용자 모드로 부트하십시오.

  14. 복원된 노드가 아닌 다른 클러스터 노드에서 metaset(1M) 명령을 사용하여 복원된 노드를 모든 메타 세트에 추가하십시오.


    phys-schost-2# metaset -s setname -a -h nodelist
    

    -a

    호스트를 만들어 디스크 세트에 추가합니다.

    노드가 클러스터 모드로 다시 부트됩니다. 이제 클러스터를 사용할 준비가 되었습니다.

8.3.2.1 예: 루트(/) 파일 시스템 복원(Solstice DiskSuite)

다음 예는 테이프 장치 /dev/rmt/0에서 노드 phys-schost-1로 복원되는 루트(/) 파일 시스템입니다. 노드 phys-schost-1을 제거하고 나중에 다시 디스크 세트 schost-1에 추가하기 위해 클러스터의 다른 노드 phys-schost-2에서 metaset 명령이 실행됩니다. 다른 명령은 모두 phys-schost-1에서 실행됩니다. 새 부트 블록은 /dev/rdsk/c0t0d0s0에 만들어지고 상태 데이터베이스 복제 세 개는 /dev/rdsk/c0t0d0s4에 만들어집니다.


[Become superuser on a cluster node other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to recreate partitions and file systems.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-챙/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Replace the disk ID:]
# scdidadm -R /dev/dsk/c0t0d0
[Recreate state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Press CTL-d to boot into multiuser mode.
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

8.3.3 메타 장치에 있던 루트(/) 파일 시스템을 복원하는 방법(Solstice DiskSuite)

백업할 때 메타 장치에 있던 루트(/) 파일 시스템을 복원하려면 이 절차를 사용하십시오. 루트 디스크가 손상되어 새 디스크로 교체하는 경우와 같은 상황에서 이 절차를 수행하십시오. 복원하는 노드를 부트하면 안됩니다. 복원 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.


주 -

장애가 발생한 디스크와 동일한 형식을 사용하여 새 디스크를 분할해야 하기 때문에 이 절차를 시작하기 전에 파티션 구조를 확인하고 필요한 파일 시스템을 다시 만드십시오.


  1. 복원하려는 노드를 제외한 노드 중에서 메타 세트에 액세스할 수 있는 클러스터 노드에 대하여 수퍼유저가 되십시오.

  2. 모든 메타 세트에서 복원되는 노드의 호스트 이름을 제거하십시오.


    # metaset -s setname -f -d -h nodelist
    

    -s setname

    메타 세트 이름을 지정합니다.

    -f

    강제로 실행합니다.

    -d

    메타 세트에서 삭제합니다.

    -h nodelist

    메타 세트에서 삭제할 노드의 이름을 지정합니다.

  3. 루트(/) 파일 시스템을 복원할 노드에서 장애가 발생한 디스크를 교체하십시오.

    서버와 함께 제공되는 문서에서 디스크를 교체하는 절차를 참조하십시오.

  4. 복원되고 있는 노드를 부트하십시오.

    • Solaris CD-ROM을 사용하는 경우에는 다음 명령을 실행하십시오.


      ok boot cdrom -s
      

    • JumpStart 서버를 사용하는 경우에는 다음 명령을 실행하십시오.


      ok boot net -s
      

  5. format(1M) 명령을 사용하여 루트 디스크에 모든 파티션과 스왑 공간을 만드십시오.

    장애가 발생한 디스크와 동일한 파티션 구조를 다시 만드십시오.

  6. newfs(1M) 명령을 사용하여 루트(/) 파일 시스템과 필요한 다른 파일 시스템을 만드십시오.

    장애가 발생한 디스크와 동일한 파일 시스템을 다시 만드십시오.


    주 -

    /global/.devices/node@nodeid 파일 시스템을 만들어야 합니다.


  7. 임시 마운트 포인트에 루트(/) 파일 시스템을 마운트하십시오.


    # mount device temp-mountpoint
    

  8. 다음 명령을 사용하여 루트(/) 파일 시스템을 복원하십시오.


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    

  9. 새 디스크에 새 부트 블록을 설치하십시오.


    # /usr/sbin/installboot /usr/platform/`uname -챙/lib/fs/ufs/bootblk raw-disk-device
    

  10. /temp-mountpoint/etc/system 파일에서 MDD 루트 정보에 대한 행을 제거하십시오.


    * Begin MDD root info (do not edit)
    forceload: misc/md_trans
    forceload: misc/md_raid
    forceload: misc/md_mirror
    forceload: misc/md_hotspares
    forceload: misc/md_stripe
    forceload: drv/pcipsy
    forceload: drv/glm
    forceload: drv/sd
    rootdev:/pseudo/md@0:0,10,blk
    * End MDD root info (do not edit)

  11. /temp-mountpoint/etc/vfstab 파일을 편집하여 메타 장치의 루트 항목을 메타 장치에 포함된 루트 디스크의 각 파일 시스템에 해당하는 일반 슬라이스로 변경하십시오.


    Example: 
    Change from-
    /dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -
    
    Change to-
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -

  12. 임시 파일 시스템 마운트를 해제하고 원시 디스크 장치를 확인하십시오.


    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    

  13. 단일 사용자 모드로 노드를 다시 부트하십시오.


    # reboot -- "-s"
    

  14. scdidadm 명령을 사용하여 디스크 ID를 교체하십시오.


    # scdidadm -R rootdisk
    

  15. metadb(1M) 명령을 사용하여 상태 데이터베이스 복제를 다시 만드십시오.


    # metadb -c copies -af raw-disk-device
    

    -c copies

    만들 복제 수를 지정합니다.

    -af raw-disk-device

    이름이 지정된 원시 디스크 장치에 초기 상태 데이터베이스 복제를 만듭니다.

  16. 클러스터 모드로 노드를 다시 부트하십시오.

    1. 다시 부트하십시오.


      # reboot
      

      이 부트 중에 다음과 같은 명령으로 끝나는 오류 또는 경고 메시지가 나타날 수 있습니다.


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. CTRL-d를 눌러 복수 사용자 모드로 부트하십시오.

  17. 복원된 노드가 아닌 다른 클러스터 노드에서 metaset(1M) 명령을 사용하여 복원된 노드를 모든 메타 세트에 추가하십시오.


    phys-schost-2# metaset -s setname -a -h nodelist
    

    -a

    메타 세트를 만들어 추가합니다.

    Solstice DiskSuite 문서의 설명에 따라 루트(/)에 대해 메타 장치/미러를 설정하십시오.

    노드가 클러스터 모드로 다시 부트됩니다. 이제 클러스터를 사용할 준비가 되었습니다.

8.3.3.1 예: 메타 장치에 있던 루트(/) 파일 시스템 복원(Solstice DiskSuite)

다음은 테이프 장치 /dev/rmt/0에서 노드 phys-schost-1로 루트(/) 파일 시스템을 복원하는 예입니다. 노드 phys-schost-1을 제거하고 나중에 다시 디스크 세트 schost-1에 추가하기 위해 클러스터의 다른 노드 phys-schost-2에서 metaset 명령이 실행됩니다. 다른 명령은 모두 phys-schost-1에서 실행됩니다. 새 부트 블록은 /dev/rdsk/c0t0d0s0에 만들어지고 상태 데이터베이스 복제 세 개는 /dev/rdsk/c0t0d0s4에 만들어집니다.


[Become superuser on a cluster node with access to the metaset, 
other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to recreate partitions and file systems.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-챙/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Remove the lines in /temp-mountpoint/etc/system file for MDD root information:]
* Begin MDD root info (do not edit)
forceload: misc/md_trans
forceload: misc/md_raid
forceload: misc/md_mirror
forceload: misc/md_hotspares
forceload: misc/md_stripe
forceload: drv/pcipsy
forceload: drv/glm
forceload: drv/sd
rootdev:/pseudo/md@0:0,10,blk
* End MDD root info (do not edit)
[Edit the /temp-mountpoint/etc/vfstab file]
Example: 
Change from-
/dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -

Change to-
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -
[Unmount the temporary file system and check the raw disk device:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Replace the disk ID:]
# scdidadm -R /dev/dsk/c0t0d0
[Recreate state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Type CTRL-d to boot into multiuser mode.
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

8.3.4 캡슐화되지 않은 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager)

캡슐화되지 않은 루트(/) 파일 시스템을 노드에 복원하려면 이 절차를 사용하십시오. 복원하는 노드를 부트하면 안됩니다. 복원 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.


주 -

장애가 발생한 디스크와 동일한 형식을 사용하여 새 디스크를 분할해야 하기 때문에 이 절차를 시작하기 전에 파티션 구조를 확인하고 필요한 파일 시스템을 다시 만드십시오.


  1. 루트 파일 시스템을 복원할 노드에서 장애가 발생한 디스크를 교체하십시오.

    서버와 함께 제공되는 문서에서 디스크를 교체하는 절차를 참조하십시오.

  2. 복원되고 있는 노드를 부트하십시오.

    • Solaris CD-ROM을 사용하는 경우에는 다음 명령을 실행하십시오.


      ok boot cdrom -s
      

    • JumpStart 서버를 사용하는 경우에는 다음 명령을 실행하십시오.


      ok boot net -s
      

  3. format(1M) 명령을 사용하여 루트 디스크에 모든 파티션과 스왑 공간을 만드십시오.

    장애가 발생한 디스크와 동일한 파티션 구조를 다시 만드십시오.

  4. newfs(1M) 명령을 사용하여 루트(/) 파일 시스템과 필요한 다른 파일 시스템을 만드십시오.

    장애가 발생한 디스크와 동일한 파일 시스템을 다시 만드십시오.


    주 -

    /global/.devices/node@nodeid 파일 시스템을 만들어야 합니다.


  5. 임시 마운트 포인트에 루트(/) 파일 시스템을 마운트하십시오.


    # mount device temp-mountpoint
    

  6. 백업에서 루트(/) 파일 시스템을 복원하고 파일 시스템 마운트를 해제한 다음 확인하십시오.


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    

    이제 파일 시스템이 복원되었습니다.

  7. 새 디스크에 새 부트 블록을 설치하십시오.


    # /usr/sbin/installboot /usr/platform/`uname -챙/lib/fs/ufs/bootblk raw-disk-device
    

  8. 단일 사용자 모드로 노드를 다시 부트하십시오.

    1. 다시 부트하십시오.


      # reboot -- "-s"

      이 부트 중에 다음과 같은 명령으로 끝나는 오류 또는 경고 메시지가 나타날 수 있습니다.


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. 루트 암호를 입력하십시오.

  9. 루트 디스크 그룹이 루트 디스크의 단일 슬라이스에 있는지 확인하십시오.

    • 그러면 루트 디스크 그룹을 만들고 설정하십시오.


      # vxdctl init
      # vxdg init rootdg
      # vxdctl add disk diskslice type=simple
      # vxdisk -f init diskslice type=simple
      # vxdg adddisk diskslice
      # vxdctl enable
      

    • 아니면 단계 10으로 이동하십시오.

  10. scdidadm 명령을 사용하여 디스크 ID를 갱신하십시오.


    # scdidadm -R /dev/rdsk/disk-device
    

  11. CTRL-d를 눌러 복수 사용자 모드로 다시 시작하십시오.

    노드가 클러스터 모드로 다시 부트됩니다. 이제 클러스터를 사용할 준비가 되었습니다.

8.3.4.1 예: 캡슐화되지 않은 루트(/) 파일 시스템 복원(VERITAS Volume Manager)

다음은 테이프 장치 /dev/rmt/0에서 노드 phys-schost-1로 캡슐화되지 않은 루트(/) 파일 시스템을 복원하는 예입니다.


[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-챙/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[If the root disk group is on a single slice on the root disk, 
create the new root disk group:]
# vxdctl init
# vxdg init rootdg
# vxdctl add disk c0t0d0s4 type=simple
# vxdisk -f init c0t0d0s4 type=simple
# vxdg adddisk c0t0d0s4
# vxdctl enable
[Update the disk ID:]
# scdidadm -R /dev/rdsk/c0t0d0
[Press CTRL-d to resume in multiuser mode]

8.3.5 캡슐화된 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager)

캡슐화된 루트(/) 파일 시스템을 노드에 복원하려면 이 절차를 사용하십시오. 복원하는 노드를 부트하면 안됩니다. 복원 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.


주 -

장애가 발생한 디스크와 동일한 형식을 사용하여 새 디스크를 분할해야 하기 때문에 이 절차를 시작하기 전에 파티션 구조를 확인하고 필요한 파일 시스템을 다시 만드십시오.


  1. 루트 파일 시스템을 복원할 노드에서 장애가 발생한 디스크를 교체하십시오.

    서버와 함께 제공되는 문서에서 디스크를 교체하는 절차를 참조하십시오.

  2. 복원되고 있는 노드를 부트하십시오.

    • Solaris CD-ROM을 사용하는 경우에는 다음 명령을 실행하십시오.


      ok boot cdrom -s
      
    • JumpStart 서버를 사용하는 경우에는 다음 명령을 실행하십시오.


      ok boot net -s
      

  3. format(1M) 명령을 사용하여 루트 디스크에 모든 파티션과 스왑 공간을 만드십시오.

    장애가 발생한 디스크와 동일한 파티션 구조를 다시 만드십시오.

  4. newfs(1M) 명령을 사용하여 루트(/) 파일 시스템과 필요한 다른 파일 시스템을 만드십시오.

    장애가 발생한 디스크와 동일한 파일 시스템을 다시 만드십시오.


    주 -

    /global/.devices/node@nodeid 파일 시스템을 만들어야 합니다.


  5. 임시 마운트 포인트에 루트(/) 파일 시스템을 마운트하십시오.


    # mount device temp-mountpoint
    

  6. 백업에서 루트(/) 파일 시스템을 복원하십시오.


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    

  7. 비어 있는 install-db 파일을 만드십시오.

    그러면 다음에 다시 부트할 때 노드가 VxVM 설치 모드로 부트됩니다.


    # touch /temp-mountpoint/etc/vx/reconfig.d/state.d/install-db
    

  8. /temp-mountpoint/etc/system 파일에서 다음 항목을 제거하거나 주석 표시를 하십시오.


    * rootdev:/pseudo/vxio@0:0
    * set vxio:vol_rootdev_is_volume=1

  9. /temp-mountpoint/etc/vfstab 파일을 편집하여 모든 VxVM 마운트 포인트를 /dev/dsk/c0t0d0s0과 같은 루트 디스크의 표준 디스크 장치로 교체하십시오.


    Example: 
    Change from-
    /dev/vx/dsk/rootdg/rootvol /dev/md/rdsk/rootdg/rootvol /      ufs   1     no -
    
    Change to-
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -

  10. 임시 파일 시스템 마운트를 해제하고 파일 시스템을 확인하십시오.


    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    

  11. 새 디스크에 새 부트 블록을 설치하십시오.


    # /usr/sbin/installboot /usr/platform/`uname -챙/lib/fs/ufs/bootblk raw-disk-device
    

  12. 단일 사용자 모드로 노드를 다시 부트하십시오.


    # reboot -- "-s"
    

  13. scdidadm(1M) 명령을 사용하여 디스크 ID를 갱신하십시오.


    # scdidadm -R /dev/rdsk/c0t0d0
    

  14. vxinstall 명령을 실행하여 디스크를 캡슐화하고 다시 부트하십시오.


    # vxinstall
    

  15. 하위 번호에 다른 시스템과의 충돌이 있으면 글로벌 장치 마운트를 취소한 후 디스크 그룹을 가져오십시오.

    • 클러스터 노드에서 글로벌 장치 파일 시스템의 마운트를 해제하십시오.


      # umount /global/.devices/node@nodeid
      

    • 클러스터 노드에서 rootdg 디스크 그룹 하위 번호를 다시 지정하십시오.


      # vxdg reminor rootdg 100
      

  16. 노드를 종료하고 클러스터 모드로 다시 부트하십시오.


    # shutdown -g0 -i6 -y
    

8.3.5.1 예: 캡슐화된 루트(/) 파일 시스템 복원(VERITAS Volume Manager)

다음은 테이프 장치 /dev/rmt/0에서 노드 phys-schost-1로 캡슐화된 루트(/) 파일 시스템을 복원하는 예입니다.


[Replace the failed disk and boot the node:]
ok boot cdrom -s
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Create an empty install-db file:]
# touch /a/etc/vx/reconfig.d/state.d/install-db
[Edit /etc/system on the temporary file system and remove or comment out the following entries:]
	# rootdev:/pseudo/vxio@0:0
	# set vxio:vol_rootdev_is_volume=1
[Edit /etc/vfstab on the temporary file system:]
Example: 
Change from-
/dev/vx/dsk/rootdg/rootvol /dev/md/rdsk/rootdg/rootvol / ufs 1 no-

Change to-
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
[Unmount the temporary file system, then check the file system:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-챙/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot in single-user mode:]
# reboot -- "-s"
[Update the disk ID:]
# scdidadm -R /dev/rdsk/c0t0d0
[Run vxinstall:]
# vxinstall
Choose to encapsulate the root disk.
[If there is a conflict in minor number, reminor the rootdg disk group:]
# umount /global/.devices/node@nodeid
# vxdg reminor rootdg 100
# shutdown -g0 -i6 -y

8.3.5.2 여기서 수행할 작업

캡슐화된 루트 디스크를 이중화하는 방법은 Sun Cluster 3.0 12/01 소프트웨어 설치 안내서에서 클러스터 파일 복원 단락을 참조하십시오.