Solaris OS용 Sun Cluster 시스템 관리 안내서

클러스터 파일 복원

표 9–2 작업 맵: 클러스터 파일 복원

작업 

참고 항목 

Solstice DiskSuite/Solaris 볼륨 관리자의 경우에 Solaris 복원 절차에 따라 대화식으로 파일 복원 

대화식으로 각 파일을 복원하는 방법(Solstice DiskSuite/Solaris 볼륨 관리자)

Solstice DiskSuite/Solaris 볼륨 관리자의 경우에 루트(/) 파일 시스템 복원

루트(/) 파일 시스템을 복원하는 방법(Solstice DiskSuite/Solaris 볼륨 관리자)

  

Solstice DiskSuite 메타 장치 또는 Solaris 볼륨 관리자 볼륨에 있던 루트(/) 파일 시스템을 복원하는 방법

VERITAS Volume Manager의 경우에 캡슐화되지 않은 루트(/) 파일 시스템 복원

SPARC: 캡슐화되지 않은 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager)

VERITAS Volume Manager의 경우에 캡슐화된 루트(/) 파일 시스템 복원

SPARC: 캡슐화된 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager)

Procedure대화식으로 각 파일을 복원하는 방법(Solstice DiskSuite/Solaris 볼륨 관리자)

하나 이상의 개별 파일을 복원하려면 다음 절차를 수행하십시오. 복원 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.

단계
  1. 복원할 클러스터 노드의 수퍼유저가 되거나 그와 동등한 역할을 맡습니다.

  2. 복원하는 파일을 사용하는 데이터 서비스를 모두 중지시킵니다.


    # scswitch -z -g resource-group[,...] -h ““
    
  3. ufsrestore 명령을 사용하여 파일을 복원합니다.

Procedure루트(/) 파일 시스템을 복원하는 방법(Solstice DiskSuite/Solaris 볼륨 관리자)

손상된 루트 디스크를 교체한 경우처럼 루트(/) 파일 시스템을 새 디스크에 복원하려면 이 절차를 사용하십시오. 복원하는 노드를 부트하면 안됩니다. 복원 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.


주 –

새 디스크는 장애가 발생한 디스크와 같은 형식으로 분할해야 하므로 이 절차를 시작하기 전에 분할 영역 구조를 확인하고 적절한 형식으로 파일 시스템을 다시 만듭니다.


단계
  1. 클러스터 노드에서 복원할 노드가 연결되는 디스크 세트에 액세스할 수 있는 수퍼유저가 되거나 그와 동등한 역할을 맡습니다.

    복원할 노드가 아닌 노드에서 수퍼유저가 되거나 그와 동등한 역할을 맡습니다.

  2. 모든 메타 세트에서 복원되는 노드의 호스트 이름을 제거합니다.

    제거하는 노드가 아닌 메타 세트의 노드에서 이 명령을 실행하십시오.


    # metaset -s setname -f -d -h nodelist
    
    -s setname

    디스크 세트 이름을 지정합니다.

    -f

    강제로 실행합니다.

    -d

    디스크 세트에서 삭제합니다.

    -h nodelist

    디스크 세트에서 삭제할 노드의 이름을 지정합니다.

  3. root (/) 및 /usr 파일 시스템을 복원합니다.

    root/usr 파일 시스템을 복원하려면 System Administration Guide: Devices and File Systems의 26 장, Restoring Files and File Systems (Tasks)의 절차를 수행합니다. 시스템을 재부트하려면 Solaris 절차에서 해당 단계를 생략합니다.


    주 –

    /global/.devices/node@nodeid 파일 시스템을 만들어야 합니다.


  4. 노드를 복수 사용자 모드로 재부트합니다.


    # reboot
    
  5. scdidadm(1M) 명령을 사용하여 디스크 ID를 변경합니다.


    # scdidadm -R rootdisk
    
  6. metadb(1M) 명령을 사용하여 상태 데이터베이스 복제본을 다시 만듭니다.


    # metadb -c copies -af raw-disk-device
    
    -c copies

    만들 복제본의 수를 지정합니다.

    -f raw-disk-device

    복제본을 만들 원시 디스크 장치입니다.

    -a

    복제본을 추가합니다.

  7. 복원된 노드가 아닌 클러스터 노드에서 metaset 명령을 사용하여 복원된 노드를 모든 디스크 세트에 추가합니다.


    phys-schost-2# metaset -s setname -a -h nodelist
    
    -a

    호스트를 만들어 디스크 세트에 추가합니다.

    노드가 클러스터 모드로 재부트됩니다. 이제 클러스터를 사용할 준비가 되었습니다.


예 9–6 루트(/) 파일 시스템 복원(Solstice DiskSuite/Solaris 볼륨 관리자)

다음 예에서는 테이프 디바이스 /dev/rmt/0에서 노드 phys-schost-1로 복원된 루트(/) 파일 시스템을 보여줍니다. phys-schost-1 노드를 제거하고 나중에 schost-1 디스크 세트에 다시 추가하기 위해 클러스터의 다른 노드인 phys-schost-2에서 metaset 명령을 실행합니다. 다른 명령은 모두 phys-schost-1에서 실행됩니다. 새 부트 블록이 /dev/rdsk/c0t0d0s0에 만들어지고 세 개의 상태 데이터베이스 복제본은 /dev/rdsk/c0t0d0s4에 만들어집니다.


[복원할 노드가 아닌 클러스터 노드에서 수퍼유저가 되거나 그와 동등한 역할을 맡음]
[메타 세트에서 노드 제거]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[장애가 발생한 디스크 교체 및 노드 부트]
Solaris 시스템 관리 설명서의 절차를 사용하여 root(/) 및 /usr 파일 시스템 복원
 [재부트]
# reboot
[디스크 ID 변경]
# scdidadm -R /dev/dsk/c0t0d0
[상태 데이터베이스 복제본 다시 만들기]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[메타 세트에 노드 다시 추가]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

ProcedureSolstice DiskSuite 메타 장치 또는 Solaris 볼륨 관리자 볼륨에 있던 루트(/) 파일 시스템을 복원하는 방법

백업을 수행할 때 Solstice DiskSuite 메타 장치 또는 Solaris 볼륨 관리자 볼륨에 있던 루트(/) 파일 시스템을 복원하려면 이 절차를 사용하십시오. 루트 디스크가 손상되어 새 디스크로 교체하는 경우와 같은 상황에서 이 절차를 수행하십시오. 복원하는 노드를 부트하면 안됩니다. 복원 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.


주 –

장애가 발생한 디스크와 동일한 파일 시스템을 사용하여 새 디스크를 분할해야 하기 때문에 이 절차를 시작하기 전에 분할 영역 구조를 확인하고 필요한 파일 시스템을 다시 만드십시오.


단계
  1. 복원할 노드가 아닌 클러스터 노드에서 디스크 세트에 액세스할 수 있는 수퍼유저가 되거나 그와 동등한 역할을 맡습니다.

  2. 모든 디스크 세트에서 복원할 노드의 호스트 이름을 제거합니다.


    # metaset -s setname -f -d -h nodelist
    
    -s setname

    메타 세트 이름을 지정합니다.

    -f

    강제로 실행합니다.

    -d

    메타 세트에서 삭제합니다.

    -h nodelist

    메타 세트에서 삭제할 노드의 이름을 지정합니다.

  3. 루트(/) 파일 시스템을 복원할 노드에서 장애가 발생한 디스크를 교체합니다.

    서버와 함께 제공되는 문서에서 디스크를 교체하는 절차를 참조하십시오.

  4. 복원할 노드를 부트합니다.

    • Solaris CD를 사용하는 경우

      • SPARC: OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.


        ok boot cdrom -s
        
      • x86: CD를 시스템의 CD 드라이브에 넣고 시스템을 종료한 다음 전원을 껐다가 켜서 부트합니다. Current Boot Parameters 화면에서 다음 명령을 입력합니다.


                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
        
    • Solaris JumpStart TM 서버를 사용하는 경우

      • SPARC: OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.


        ok boot net -s
        
      • x86: 시스템을 종료한 다음 전원을 껐다가 켜서 부트합니다. Current Boot Parameters 화면에서 다음 명령을 입력합니다.


                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
        
  5. format 명령을 사용하여 루트 디스크에 모든 분할 영역과 스왑 공간을 만듭니다.

    장애가 발생한 디스크와 동일한 분할 영역 구조를 다시 만드십시오.

  6. newfs 명령을 사용하여 루트(/) 파일 시스템과 필요한 다른 파일 시스템을 만듭니다.

    장애가 발생한 디스크와 동일한 파일 시스템을 다시 만드십시오.


    주 –

    /global/.devices/node@nodeid 파일 시스템을 만들어야 합니다.


  7. 임시 마운트 지점에 루트(/) 파일 시스템을 마운트합니다.


    # mount device temp-mountpoint
    
  8. 다음 명령을 사용하여 루트(/) 파일 시스템을 복원합니다.


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    
  9. 새 디스크에 새 부트 블록을 설치합니다.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk 
    raw-disk-device
    
  10. /temp-mountpoint/etc/system 파일에서 MDD 루트 정보에 대한 행을 제거하십시오.


    * Begin MDD root info (do not edit)
    forceload: misc/md_trans
    forceload: misc/md_raid
    forceload: misc/md_mirror
    forceload: misc/md_hotspares
    forceload: misc/md_stripe
    forceload: drv/pcipsy
    forceload: drv/glm
    forceload: drv/sd
    rootdev:/pseudo/md@0:0,10,blk
    * End MDD root info (do not edit)
  11. Solstice DiskSuite 메타 장치 또는 Solaris 볼륨 관리자 볼륨에서 메타 장치 또는 볼륨의 일부인 루트 디스크에 있는 각 파일 시스템의 해당되는 정상 슬라이스로 루트 항목을 변경하도록 /temp-mountpoint/etc/vfstab 파일을 편집하십시오.


    Example: 
    Change from—
    /dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -
    
    Change to—
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /      ufs   1     no       -
  12. 임시 파일 시스템 마운트를 해제하고 원시 디스크 장치를 검사합니다.


    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    
  13. 노드를 복수 사용자 모드로 재부트합니다.


    # reboot
    
  14. scdidadm 명령을 사용하여 디스크 ID를 교체합니다.


    # scdidadm -R rootdisk
    
  15. metadb 명령을 사용하여 상태 데이터베이스 복제본을 다시 만듭니다.


    # metadb -c copies -af raw-disk-device
    
    -c copies

    만들 복제본의 수를 지정합니다.

    -af raw-disk-device

    이름이 지정된 원시 디스크 장치에 초기 상태 데이터베이스 복제본을 만듭니다.

  16. 복원된 노드가 아닌 클러스터 노드에서 metaset 명령을 사용하여 복원된 노드를 모든 디스크 세트에 추가합니다.


    phys-schost-2# metaset -s setname -a -h nodelist
    
    -a

    메타 세트를 만들어 추가합니다.

    Solstice DiskSuite 설명서에 따라 루트(/)의 메타 장치 또는 볼륨/미러를 설정합니다.

    노드가 클러스터 모드로 재부트됩니다. 이제 클러스터를 사용할 준비가 되었습니다.


예 9–7 Solstice DiskSuite 메타 장치 또는 Solaris 볼륨 관리자 볼륨에 있던 루트(/) 파일 시스템 복원

다음 예에서는 테이프 디바이스 /dev/rmt/0에서 노드 phys-schost-1로 복원된 루트(/) 파일 시스템을 보여줍니다. metaset 명령은 제거된 후 나중에 메타 세트 schost-1에 노드 phys-schost-1을 추가하기 위해 클러스터 phys-schost-2에 있는 또다른 노드에서 실행됩니다. 다른 명령은 모두 phys-schost-1에서 실행됩니다. 새 부트 블록이 /dev/rdsk/c0t0d0s0에 만들어지고 세 개의 상태 데이터베이스 복제본은 /dev/rdsk/c0t0d0s4에 만들어집니다.


[복원할 노드가 아닌 클러스터 노드에서 메타 세트에 액세스할 수 있는 수퍼유저가 되거나 그와 동등한 역할을 맡음]
[메타 세트에서 노드 제거]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[장애가 발생한 디스크 교체 및 노드 부트]

Solaris CD에서 노드를 부트합니다.


[formatnewfs를 사용하여 분할 영역 및 파일 시스템 다시 만들기]
[임시 마운트 지점에서 루트 파일 시스템 마운트]
# mount /dev/dsk/c0t0d0s0 /a
[루트 파일 시스템 복원]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[새 부트 블록 설치]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0

[MDD 루트 정보에 대한 /
temp-mountpoint/etc/system 파일에서 행 제거]
* Begin MDD root info (do not edit)
forceload: misc/md_trans
forceload: misc/md_raid
forceload: misc/md_mirror
forceload: misc/md_hotspares
forceload: misc/md_stripe
forceload: drv/pcipsy
forceload: drv/glm
forceload: drv/sd
rootdev:/pseudo/md@0:0,10,blk
* End MDD root info (do not edit)
[/temp-mountpoint/etc/vfstab
파일 편집]
Example: 
Change from—
/dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -

Change to—
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -
[임시 파일 시스템 마운트 해제 및 원시 디스크 장치 확인]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[재부트]
# reboot
[디스크 ID 변경]
# scdidadm -R /dev/rdsk/c0t0d0
[상태 데이터베이스 복제본 다시 만들기]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[메타 세트에 노드 다시 추가]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

ProcedureSPARC: 캡슐화되지 않은 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager)

캡슐화되지 않은 루트(/) 파일 시스템을 노드로 복원하려면 다음 절차를 수행하십시오. 복원하는 노드를 부트하면 안됩니다. 복원 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.


주 –

장애가 발생한 디스크와 동일한 파일 시스템을 사용하여 새 디스크를 분할해야 하기 때문에 이 절차를 시작하기 전에 분할 영역 구조를 확인하고 필요한 파일 시스템을 다시 만드십시오.


단계
  1. 루트 파일 시스템이 복원될 노드에서 장애가 발생한 디스크를 교체합니다.

    서버와 함께 제공되는 문서에서 디스크를 교체하는 절차를 참조하십시오.

  2. 복원할 노드를 부트합니다.

    • Solaris CD를 사용하는 경우 OpenBoot PROM ok프롬프트에서 다음 명령을 입력합니다.


      ok boot cdrom -s
      
    • Solaris JumpStart TM 서버를 사용하는 경우 OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.


      ok boot net -s
      
  3. format 명령을 사용하여 루트 디스크에 모든 분할 영역과 스왑 공간을 만듭니다.

    장애가 발생한 디스크와 동일한 분할 영역 구조를 다시 만드십시오.

  4. newfs 명령을 사용하여 루트(/) 파일 시스템과 필요한 다른 파일 시스템을 만듭니다.

    장애가 발생한 디스크와 동일한 파일 시스템을 다시 만드십시오.


    주 –

    /global/.devices/node@nodeid 파일 시스템을 만들어야 합니다.


  5. 임시 마운트 지점에 루트(/) 파일 시스템을 마운트합니다.


    # mount device temp-mountpoint
    
  6. 백업에서 루트(/) 파일 시스템을 복원하고 파일 시스템 마운트를 해제한 다음 확인합니다.


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    

    이제 파일 시스템이 복원되었습니다.

  7. 새 디스크에 새 부트 블록을 설치합니다.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    
  8. 노드를 복수 사용자 모드로 재부트합니다.


    # reboot
    
  9. scdidadm 명령을 사용하여 디스크 ID를 업데이트하십시오.


     # scdidadm -R /dev/rdsk/disk-device
    
  10. CTRL-d를 눌러 복수 사용자 모드로 다시 시작합니다.

    노드가 클러스터 모드로 재부트됩니다. 이제 클러스터를 사용할 준비가 되었습니다.


예 9–8 SPARC: 캡슐화되지 않은 루트(/) 파일 시스템 복원(VERITAS Volume Manager)

다음은 테이프 장치 /dev/rmt/0에서 노드 phys-schost-1로 캡슐화되지 않은 루트(/) 파일 시스템을 복원하는 예입니다.


[장애가 발생한 디스크 교체 및 노드 부트:]

Solaris CD에서 노드를 부트합니다. OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.


ok boot cdrom -s
...
[format newfs를 사용하여 분할 영역 및 파일 시스템 만들기]
[임시 마운트 지점에서 루트 파일 시스템 마운트:]
# mount /dev/dsk/c0t0d0s0 /a
[루트 파일 시스템 복원]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[새 부트 블록 설치]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0

[재부트]
# reboot
[디스크 ID 업데이트]
# scdidadm -R /dev/rdsk/c0t0d0

ProcedureSPARC: 캡슐화된 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager)

캡슐화된 루트(/) 파일 시스템을 노드로 복원하려면 다음 절차를 수행하십시오. 복원하는 노드를 부트하면 안됩니다. 복원 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.


주 –

장애가 발생한 디스크와 동일한 파일 시스템을 사용하여 새 디스크를 분할해야 하기 때문에 이 절차를 시작하기 전에 분할 영역 구조를 확인하고 필요한 파일 시스템을 다시 만드십시오.


단계
  1. 루트 파일 시스템이 복원될 노드에서 장애가 발생한 디스크를 교체합니다.

    서버와 함께 제공되는 문서에서 디스크를 교체하는 절차를 참조하십시오.

  2. 복원할 노드를 부트합니다.

    • Solaris CD를 사용하는 경우 OpenBoot PROM ok프롬프트에서 다음 명령을 입력합니다.


      ok boot cdrom -s
      
    • Solaris JumpStart TM 서버를 사용하는 경우 OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.


      ok boot net -s
      
  3. format 명령을 사용하여 루트 디스크에 모든 분할 영역과 스왑 공간을 만듭니다.

    장애가 발생한 디스크와 동일한 분할 영역 구조를 다시 만드십시오.

  4. newfs 명령을 사용하여 루트(/) 파일 시스템과 필요한 다른 파일 시스템을 만듭니다.

    장애가 발생한 디스크와 동일한 파일 시스템을 다시 만드십시오.


    주 –

    /global/.devices/node@nodeid 파일 시스템을 만들어야 합니다.


  5. 임시 마운트 지점에 루트(/) 파일 시스템을 마운트합니다.


    # mount device temp-mountpoint
    
  6. 백업에서 루트(/) 파일 시스템을 복원합니다.


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    
  7. 비어 있는 install-db 파일을 만듭니다.

    그러면 다음에 재부트할 때 노드가 VxVM 설치 모드로 부트됩니다.


    # touch \
    /temp-mountpoint/etc/vx/reconfig.d/state.d/install-db
    
  8. / temp-mountpoint/etc/system 파일에서 다음 항목을 제거합니다.


    * rootdev:/pseudo/vxio@0:0
    * set vxio:vol_rootdev_is_volume=1
  9. /temp-mountpoint/etc/vfstab 파일을 편집하여 모든 VxVM 마운트 지점을 /dev/dsk/c0t0d0s0과 같은 루트 디스크의 표준 디스크 장치로 교체합니다.


    예: 
    변경 전—
    /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol /      ufs   1     no -
    
    변경 후—
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
  10. 임시 파일 시스템 마운트를 해제하고 파일 시스템을 검사합니다.


    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    
  11. 새 디스크에 새 부트 블록을 설치합니다.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    
  12. 노드를 복수 사용자 모드로 재부트합니다.


    # reboot
    
  13. scdidadm(1M) 명령을 사용하여 디스크 ID를 업데이트합니다.


    # scdidadm -R /dev/rdsk/c0t0d0
    
  14. vxinstall 명령을 실행하여 디스크를 캡슐화하고 재부트합니다.


     # vxinstall
    
  15. 부 번호에 다른 시스템과의 충돌이 있으면 전역 장치 마운트를 취소한 후 디스크 그룹을 가져옵니다.

    • 클러스터 노드에서 전역 장치 파일 시스템의 마운트를 해제하십시오.


       # umount /global/.devices/node@nodeid
      
    • 클러스터 노드에서 rootdg 디스크 그룹 부 번호를 다시 지정하십시오.


      # vxdg reminor rootdg 100
      
  16. 노드를 종료하고 클러스터 모드로 재부트합니다.


    # shutdown -g0 -i6 -y
    

예 9–9 SPARC: 캡슐화된 루트(/) 파일 시스템 복원(VERITAS Volume Manager)

다음은 테이프 장치 /dev/rmt/0에서 노드 phys-schost-1로 캡슐화된 루트(/) 파일 시스템을 복원하는 예입니다.


[장애가 발생한 디스크 교체 및 노드 부트]

Solaris CD에서 노드를 부트합니다. OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.


ok boot cdrom -s
...
[format newfs 명령을 사용하여 분할 영역 및 파일 시스템 만들기]
[임시 마운트 지점에 루트 파일 시스템 마운트]
# mount /dev/dsk/c0t0d0s0 /a
[루트 파일 시스템 복원]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[비어 있는 install-db 파일 만들기]
# touch /a/etc/vx/reconfig.d/state.d/install-db
[임시 파일 시스템에서 /etc/system을 편집하고 다음 항목을 제거하거나 주석으로 처리]
	# rootdev:/pseudo/vxio@0:0
	# set vxio:vol_rootdev_is_volume=1
[임시 파일 시스템에서 /etc/vfstab 편집]
Example: 
Change from—
/dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no-

Change to—
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
[임시 파일 시스템 마운트 해제 후 파일 시스템 확인]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[새 부트 블록 설치]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0

[재부트]
# reboot
[디스크 ID 업데이트]
# scdidadm -R /dev/rdsk/c0t0d0
[vxinstall 실행]
# vxinstall
Choose to encapsulate the root disk.
[부 번호가 충돌될 경우 rootdg 디스크 그룹 부 번호 다시 지정]
# umount /global/.devices/node@nodeid
# vxdg reminor rootdg 100
# shutdown -g0 -i6 -y

참조

캡슐화된 루트 디스크를 미러하는 방법에 대한 자세한 내용은 Solaris OS용 Sun Cluster 소프트웨어 설치 안내서를 참조하십시오.