JavaScript is required to for searching.
탐색 링크 건너뛰기
인쇄 보기 종료
Oracle Solaris Cluster 시스템 관리 설명서     Oracle Solaris Cluster (한국어)
search filter icon
search icon

문서 정보

머리말

1.  Oracle Solaris Cluster 관리 방법 소개

2.  Oracle Solaris Cluster 및 RBAC

3.  클러스터 종료 및 부트

4.  데이터 복제 접근 방식

5.  전역 장치, 디스크 경로 모니터링 및 클러스터 파일 시스템 관리

6.  쿼럼 관리

7.  클러스터 상호 연결 및 공용 네트워크 관리

8.  노드 추가 및 제거

9.  클러스터 관리

10.  CPU 사용 제어 구성

11.  Oracle Solaris Cluster 소프트웨어 및 펌웨어 패치

12.  클러스터 백업 및 복원

클러스터 백업

백업할 파일 시스템 이름을 찾는 방법

전체 백업을 위해 필요한 테이프 수를 결정하는 방법

루트(/) 파일 시스템을 백업하는 방법

미러를 온라인으로 백업하는 방법(Solaris Volume Manager)

볼륨을 온라인으로 백업하는 방법(Veritas Volume Manager(VERITAS 볼륨 관리자))

클러스터 구성을 백업하는 방법

클러스터 파일 복원

대화식으로 각 파일을 복원하는 방법(Solaris Volume Manager)

루트(/) 파일 시스템을 복원하는 방법(Solaris Volume Manager)

Solaris Volume Manager 볼륨에 있던 루트 (/) 파일 시스템을 복원하는 방법

캡슐화되지 않은 루트(/) 파일 시스템을 복원하는 방법(Veritas Volume Manager(VERITAS 볼륨 관리자))

캡슐화된 루트(/) 파일 시스템을 복원하는 방법(Veritas Volume Manager(VERITAS 볼륨 관리자))

13.  그래픽 사용자 인터페이스를 사용한 Oracle Solaris Cluster 관리

A.  예

색인

클러스터 파일 복원

ufsrestore(1M) 명령은 ufsdump(1M) 명령을 사용하여 만든 백업의 파일을 현재 작업 디렉토리에 상대적인 디스크에 복사합니다. ufsrestore 명령을 사용하면 수준 0 덤프와 그 다음에 이어지는 증분 덤프에서 전체 파일 시스템 계층을 다시 로드할 수도 있고 덤프 테이프에서 하나 이상의 파일을 복원할 수도 있습니다. 수퍼유저 또는 그와 동등한 역할을 맡을 수 있는 권한으로 ufsrestore를 실행하면 파일이 원래 소유자, 마지막 수정 시간 및 모드(사용 권한)로 복원됩니다.

파일이나 파일 시스템을 복원하려면 먼저 다음 정보를 알아야 합니다.

표 12-2 작업 맵: 클러스터 파일 복원

작업
지침
Solaris Volume Manager의 경우에 파일을 대화식으로 복원
Solaris Volume Manager의 경우 루트(/) 파일 시스템 복원
 
Veritas Volume Manager(VERITAS 볼륨 관리자)의 경우 루트(/) 파일 시스템 복원
Veritas Volume Manager(VERITAS 볼륨 관리자)의 경우 캡슐화된 루트(/) 파일 시스템 복원

대화식으로 각 파일을 복원하는 방법(Solaris Volume Manager)

개별 파일을 한 개 이상 복원하려면 이 절차를 사용합니다. 복원 절차를 수행하기 전에 클러스터가 오류 없이 실행되는지 확인합니다.

  1. 복원할 클러스터 노드에서 수퍼유저 또는 solaris.cluster.admin RBAC 인증을 제공하는 역할로 전환합니다.
  2. 복원하는 파일을 사용하는 데이터 서비스를 모두 중지시킵니다.
    # clresourcegroup offline resource-group
  3. 파일을 복원합니다.
    # ufsrestore

루트(/) 파일 시스템을 복원하는 방법(Solaris Volume Manager)

잘못된 루트 디스크 교체 후와 같이 이 절차를 사용하여 루트(/) 파일 시스템을 새 디스크로 복원합니다. 복원하는 노드를 부트하면 안됩니다. 복원 절차를 수행하기 전에 클러스터가 오류 없이 실행되는지 확인합니다.


주 - 새 디스크는 오류가 발생한 디스크와 같은 형식으로 분할해야 하므로 이 절차를 시작하기 전에 분할 영역 구조를 확인하고 적절한 형식으로 파일 시스템을 다시 만듭니다.


phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

  1. 복원할 노드도 연결되어 있는 디스크 세트에 대해 액세스 권한이 있는 클러스터 노드에서 수퍼유저 또는 solaris.cluster.modify RBAC 인증을 제공하는 역할로 전환합니다.

    복원할 노드가 아닌 다른 노드를 사용합니다.

  2. 모든 메타 세트에서 복원 중인 노드의 호스트 이름을 제거합니다.

    제거하는 노드가 아닌 메타 세트의 노드에서 이 명령을 실행합니다. 복원할 노드가 오프라인 상태이므로 시스템에는 RPC: Rpcbind failure - RPC: Timed out 오류가 표시됩니다. 이 오류를 무시하고 다음 단계를 수행합니다.

    # metaset -s setname -f -d -h nodelist
    -s setname

    디스크 세트 이름을 지정합니다.

    -f

    디스크 세트에서 마지막 호스트를 삭제합니다.

    -d

    디스크 세트에서 삭제합니다.

    -h nodelist

    디스크 세트에서 삭제할 노드의 이름을 지정합니다.

  3. 루트(/) 및 /usr 파일 시스템을 복원합니다.

    루트 및 /usr 파일 시스템을 복원하려면 System Administration Guide: Devices and File Systems의 26 장, Restoring UFS Files and File Systems (Tasks)의 절차를 수행합니다. 시스템을 재부트하려면 Oracle Solaris OS 절차에서 해당 단계를 생략합니다.


    주 - /global/.devices/node@nodeid 파일 시스템을 만들어야 합니다.


  4. 노드를 복수 사용자 모드로 재부트합니다.
    # reboot
  5. 장치 ID를 대체합니다.
    # cldevice repair rootdisk
  6. metadb(1M) 명령을 사용하여 상태 데이터베이스 복제본을 다시 만듭니다.
    # metadb -c copies -af raw-disk-device
    -c copies

    만들 복제본의 수를 지정합니다.

    -f raw-disk-device

    복제본을 만들 원시 디스크 장치입니다.

    -a

    복제본을 추가합니다.

  7. 복원된 노드가 아닌 다른 클러스터 노드에서 복원된 노드를 모든 디스크 세트에 추가합니다.
    phys-schost-2# metaset -s setname -a -h nodelist
    -a

    호스트를 만들어 디스크 세트에 추가합니다.

    노드가 클러스터 모드로 재부트됩니다. 이제 클러스터를 사용할 준비가 되었습니다.

예 12-6 루트(/) 파일 시스템 복원(Solaris Volume Manager)

다음 예에서는 테이프 장치 /dev/rmt/0에서 노드 phys-schost-1로 복원된 루트(/) 파일 시스템을 보여 줍니다. phys-schost-1 노드를 제거하고 나중에 schost-1 디스크 세트에 다시 추가하기 위해 클러스터의 다른 노드인 phys-schost-2에서 metaset 명령을 실행합니다. 다른 명령은 모두 phys-schost-1에서 실행됩니다. 새 부트 블록은 /dev/rdsk/c0t0d0s0에 만들어지고 상태 데이터베이스 복제본 세 개는 /dev/rdsk/c0t0d0s4에 다시 만들어집니다.

[Become superuser or assume a  role that provides solaris.cluster.modify RBAC authorization on a cluster node
    other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
Restore the root (/) and /usr file system using the procedure in the Solaris system
    administration documentation
[Reboot:]
# reboot
[Replace the disk ID:]
# cldevice repair /dev/dsk/c0t0d0
[Re-create state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

Solaris Volume Manager 볼륨에 있던 루트 (/) 파일 시스템을 복원하는 방법

이 절차를 사용하여 백업이 수행될 때 Solaris Volume Manager 볼륨에 있던 루트(/) 파일 시스템을 복원합니다. 루트 디스크가 손상되어 새 디스크로 교체하는 경우와 같은 상황에서 이 절차를 수행하십시오. 복원하는 노드를 부트하면 안됩니다. 복원 절차를 수행하기 전에 클러스터가 오류 없이 실행되는지 확인합니다.


주 - 새 디스크는 오류가 발생한 디스크와 같은 형식으로 분할해야 하므로 이 절차를 시작하기 전에 분할 영역 구조를 확인하고 적절한 형식으로 파일 시스템을 다시 만듭니다.


phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

  1. 복원할 노드가 아닌 디스크 세트에 대한 액세스 권한이 있는 클러스터 노드에서 수퍼유저 또는 solaris.cluster.modifiy RBAC 인증을 제공하는 역할로 전환합니다.

    복원할 노드가 아닌 다른 노드를 사용합니다.

  2. 노드가 연결되어 있는 모든 디스크 세트에서 복원 중인 노드의 호스트 이름을 제거합니다. 각 디스크 세트에 대해 다음 명령을 한 번 실행합니다.
    # metaset -s setname -d -h hostname
    -s setname

    메타 세트 이름을 지정합니다.

    -f

    디스크 세트에서 마지막 호스트를 삭제합니다.

    -d

    메타 세트에서 삭제합니다.

    -h nodelist

    메타 세트에서 삭제할 노드의 이름을 지정합니다.

    -h hostname

    호스트의 이름을 지정합니다.

    -m mediator_host_list

    디스크 세트에서 추가하거나 삭제할 중재자 호스트의 이름을 지정합니다.

  3. 노드가 이중 문자열 중재자 호스트인 경우 중재자를 제거합니다. 노드가 연결되어 있는 각 디스크 세트에 대해 다음 명령을 한 번 실행합니다.
    # metaset -ssetname-d -m hostname
  4. 루트(/) 파일 시스템을 복원할 노드에서 오류가 발생한 디스크를 교체합니다.

    서버와 함께 제공되는 문서에서 디스크를 교체하는 절차를 참조하십시오.

  5. 복원할 노드를 부트합니다. 복구된 노드는 CD-ROM에서 단일 사용자 모드로 부트되므로 Solaris Volume Manager가 노드에서 실행되고 있지 않은 것입니다.
    • Oracle Solaris OS CD를 사용할 경우 다음 사항에 유의하십시오.

      • SPARC: 다음을 입력합니다.

        ok boot cdrom -s
      • x86: CD를 시스템의 CD 드라이브에 넣고 시스템을 종료한 다음 전원을 껐다가 켜서 부트합니다. 현재 부트 매개 변수 화면에서 b 또는 i를 입력합니다.

                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
    • Solaris JumpStart 서버를 사용하는 경우 다음을 참조하십시오.

      • SPARC: 다음을 입력합니다.

        ok boot net -s
      • x86: CD를 시스템의 CD 드라이브에 넣고 시스템을 종료한 다음 전원을 껐다가 켜서 부트합니다. 현재 부트 매개 변수 화면에서 b 또는 i를 입력합니다.

                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
  6. format 명령을 사용하여 루트 디스크에 모든 분할 영역과 스왑 공간을 만듭니다.

    장애가 발생한 디스크와 동일한 분할 체계를 다시 만듭니다.

  7. newfs 명령을 사용하여 루트(/) 파일 시스템 및 기타 파일 시스템을 적절하게 만듭니다.

    장애가 발생한 디스크와 동일한 파일 시스템을 다시 만듭니다.


    주 - /global/.devices/node@nodeid 파일 시스템을 만들어야 합니다.


  8. 임시 마운트 지점에 루트(/) 파일 시스템을 마운트합니다.
    # mount device temp-mountpoint
  9. 다음 명령을 사용하여 루트(/) 파일 시스템을 복원합니다.
    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
  10. 새 디스크에 새 부트 블록을 설치합니다.
    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk 
    raw-disk-device
  11. /temp-mountpoint/etc/system 파일에서 MDD 루트 정보에 대한 행을 제거합니다.
    * Begin MDD root info (do not edit)
    forceload: misc/md_trans
    forceload: misc/md_raid
    forceload: misc/md_mirror
    forceload: misc/md_hotspares
    forceload: misc/md_stripe
    forceload: drv/pcipsy
    forceload: drv/glm
    forceload: drv/sd
    rootdev:/pseudo/md@0:0,10,blk
    * End MDD root info (do not edit)
  12. /temp-mountpoint/etc/vfstab 파일을 편집하여 루트 항목을 Solaris Volume Manager 볼륨에서 메타 장치 또는 볼륨의 일부인 루트 디스크에 있는 각 파일 시스템의 해당되는 정상 슬라이스로 변경합니다.
    Example: 
    Change from—
    /dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -
    
    Change to—
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /      ufs   1     no       -
  13. 임시 파일 시스템 마운트를 해제하고 원시 디스크 장치를 검사합니다.
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
  14. 노드를 복수 사용자 모드로 재부트합니다.
    # reboot
  15. 장치 ID를 대체합니다.
    # cldevice repair rootdisk
  16. metadb 명령을 사용하여 상태 데이터베이스 복제본을 다시 만듭니다.
    # metadb -c copies -af raw-disk-device
    -c copies

    만들 복제본의 수를 지정합니다.

    -af raw-disk-device

    이름이 지정된 원시 디스크 장치에 초기 상태 데이터베이스 복제본을 만듭니다.

  17. 복원된 노드가 아닌 다른 클러스터 노드에서 모든 디스크 세트에 복원된 노드를 추가합니다.
    phys-schost-2# metaset -s setname -a -h nodelist
    -a

    메타 세트를 만들어 추가합니다.

    설명서에 따라 루트(/)의 볼륨/미러를 설정합니다.

    노드가 클러스터 모드로 재부트됩니다.

  18. 노드가 이중 문자열 중재자 호스트인 경우 중재자를 다시 추가합니다.
    phys-schost-2# metaset -s setname -a -m hostname 

예 12-7 Solaris Volume Manager 볼륨에 있던 루트(/) 파일 시스템 복원

다음 예에서는 테이프 장치 /dev/rmt/0에서 노드 phys-schost-1로 복원된 루트(/) 파일 시스템을 보여 줍니다. phys-schost-1 노드를 제거하고 나중에 schost-1 메타 세트에 다시 추가하기 위해 클러스터의 다른 노드인 phys-schost-2에서 metaset 명령을 실행합니다. 다른 명령은 모두 phys-schost-1에서 실행됩니다. 새 부트 블록은 /dev/rdsk/c0t0d0s0에 만들어지고 상태 데이터베이스 복제본 세 개는 /dev/rdsk/c0t0d0s4에 다시 만들어집니다.

[Become superuser or assume a role that provides solaris.cluster.modify RBAC
   authorization on a cluster node with access to the metaset, other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -d -h phys-schost-1
[Replace the failed disk and boot the node:]

Oracle Solaris OS CD에서 노드를 부트합니다.

[Use format and newfs to recreate partitions and file systems
.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0

[Remove the lines in / temp-mountpoint/etc/system file for MDD root information:
]
* Begin MDD root info (do not edit)
forceload: misc/md_trans
forceload: misc/md_raid
forceload: misc/md_mirror
forceload: misc/md_hotspares
forceload: misc/md_stripe
forceload: drv/pcipsy
forceload: drv/glm
forceload: drv/sd
rootdev:/pseudo/md@0:0,10,blk
* End MDD root info (do not edit)
[Edit the /temp-mountpoint/etc/vfstab file]
Example: 
Change from—
/dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -

Change to—
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -
[Unmount the temporary file system and check the raw disk device:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Reboot:]
# reboot
[Replace the disk ID:]
# cldevice repair /dev/rdsk/c0t0d0
[Re-create state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

캡슐화되지 않은 루트(/) 파일 시스템을 복원하는 방법(Veritas Volume Manager(VERITAS 볼륨 관리자))

이 절차를 사용하여 캡슐화되지 않은 루트(/) 파일 시스템을 노드로 복원합니다. 복원하는 노드를 부트하면 안됩니다. 복원 절차를 수행하기 전에 클러스터가 오류 없이 실행되는지 확인합니다.


주 - 새 디스크는 오류가 발생한 디스크와 같은 형식으로 분할해야 하므로 이 절차를 시작하기 전에 분할 영역 구조를 확인하고 적절한 형식으로 파일 시스템을 다시 만듭니다.


phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

  1. 루트 파일 시스템이 복원될 노드에서 오류가 발생한 디스크를 교체합니다.

    서버와 함께 제공되는 문서에서 디스크를 교체하는 절차를 참조하십시오.

  2. 복원할 노드를 부트합니다.
    • Oracle Solaris OS CD를 사용하는 경우 OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.

      ok boot cdrom -s
    • Solaris JumpStart 서버를 사용하는 경우 OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.

      ok boot net -s
  3. format 명령을 사용하여 루트 디스크에 모든 분할 영역과 스왑 공간을 만듭니다.

    장애가 발생한 디스크와 동일한 분할 체계를 다시 만듭니다.

  4. newfs 명령을 사용하여 루트(/) 파일 시스템 및 기타 파일 시스템을 적절하게 만듭니다.

    장애가 발생한 디스크와 동일한 파일 시스템을 다시 만듭니다.


    주 - /global/.devices/node@nodeid 파일 시스템을 만들어야 합니다.


  5. 임시 마운트 지점에 루트(/) 파일 시스템을 마운트합니다.
    # mount device temp-mountpoint
  6. 백업에서 루트(/) 파일 시스템을 복원하고 파일 시스템을 마운트 해제한 다음 확인합니다.
    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device

    이제 파일 시스템이 복원되었습니다.

  7. 새 디스크에 새 부트 블록을 설치합니다.
    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
  8. 노드를 복수 사용자 모드로 재부트합니다.
    # reboot
  9. 장치 ID를 업데이트합니다.
    # cldevice repair /dev/rdsk/disk-device
  10. CTRL-d를 눌러 복수 사용자 모드로 다시 시작합니다.

    노드가 클러스터 모드로 재부트됩니다. 이제 클러스터를 사용할 준비가 되었습니다.

예 12-8 캡슐화되지 않은 루트(/) 파일 시스템 복원(Veritas Volume Manager(VERITAS 볼륨 관리자))

다음 예에서는 테이프 장치 /dev/rmt/0에서 노드 phys-schost-1로 복원된 캡슐화되지 않은 루트(/) 파일 시스템을 보여 줍니다.

[Replace the failed disk and boot the node:]

Oracle Solaris OS CD에서 노드를 부트합니다. OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.

ok boot cdrom -s
...
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0

[Reboot:]
# reboot
[Update the disk ID:]
# cldevice repair /dev/rdsk/c0t0d0

캡슐화된 루트(/) 파일 시스템을 복원하는 방법(Veritas Volume Manager(VERITAS 볼륨 관리자))

이 절차를 사용하여 캡슐화된 루트(/) 파일 시스템을 노드로 복원합니다. 복원하는 노드를 부트하면 안됩니다. 복원 절차를 수행하기 전에 클러스터가 오류 없이 실행되는지 확인합니다.


주 - 새 디스크는 오류가 발생한 디스크와 같은 형식으로 분할해야 하므로 이 절차를 시작하기 전에 분할 영역 구조를 확인하고 적절한 형식으로 파일 시스템을 다시 만듭니다.


phys-schost# 프롬프트는 전역 클러스터 프롬프트를 반영합니다. 전역 클러스터에서 이 절차를 수행합니다.

이 절차에서는 장문형 Oracle Solaris Cluster 명령을 제공합니다. 대부분의 명령에는 단문형도 있습니다. 명령은 명령 이름이 장문형과 단문형인 것을 제외하면 동일합니다.

  1. 루트 파일 시스템이 복원될 노드에서 오류가 발생한 디스크를 교체합니다.

    서버와 함께 제공되는 문서에서 디스크를 교체하는 절차를 참조하십시오.

  2. 복원할 노드를 부트합니다.
    • Oracle Solaris OS CD를 사용하는 경우 OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.

      ok boot cdrom -s
    • Solaris JumpStart 서버를 사용하는 경우 OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.

      ok boot net -s
  3. format 명령을 사용하여 루트 디스크에 모든 분할 영역과 스왑 공간을 만듭니다.

    장애가 발생한 디스크와 동일한 분할 체계를 다시 만듭니다.

  4. newfs 명령을 사용하여 루트(/) 파일 시스템 및 기타 파일 시스템을 적절하게 만듭니다.

    장애가 발생한 디스크와 동일한 파일 시스템을 다시 만듭니다.


    주 - /global/.devices/ node@nodeid 파일 시스템을 만들어야 합니다.


  5. 임시 마운트 지점에 루트(/) 파일 시스템을 마운트합니다.
    # mount device temp-mountpoint
  6. 백업에서 루트(/) 파일 시스템을 복원합니다.
    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
  7. 비어 있는 install-db 파일을 만듭니다.

    이 파일은 다음 재부트 시 노드를 VxVM 설치 모드로 부트합니다.

    # touch \
    /temp-mountpoint/etc/vx/reconfig.d/state.d/install-db
  8. / temp-mountpoint /etc/system 파일에서 다음 항목을 제거합니다.
    * rootdev:/pseudo/vxio@0:0
    * set vxio:vol_rootdev_is_volume=1
  9. / temp-mountpoint /etc/vfstab 파일을 편집하여 모든 VxVM 마운트 지점을 /dev/dsk/c0t0d0s0과 같은 루트 디스크의 표준 디스크 장치로 교체합니다.
    Example: 
    Change from—
    /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol /      ufs   1     no -
    
    Change to—
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
  10. 임시 파일 시스템 마운트를 해제하고 파일 시스템을 검사합니다.
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
  11. 새 디스크에 새 부트 블록을 설치합니다.
    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
  12. 노드를 복수 사용자 모드로 재부트합니다.
    # reboot
  13. scdidadm(1M)을 사용하여 장치 ID를 업데이트합니다.
    # cldevice repair /dev/rdsk/c0t0d0
  14. clvxvm 캡슐화 명령을 실행하여 디스크를 캡슐화하고 재부트합니다.
  15. 부 번호에 다른 시스템과의 충돌이 발생하면 전역 장치를 마운트 해제한 후 디스크 그룹 부 번호를 다시 지정합니다.
    • 클러스터 노드에서 전역 장치 파일 시스템의 마운트를 해제하십시오.

      # umount /global/.devices/node@nodeid
    • 클러스터 노드에서 rootdg 디스크 그룹 부 번호를 다시 지정합니다.

      # vxdg reminor rootdg 100
  16. 노드를 종료하고 클러스터 모드로 재부트합니다.
    # shutdown -g0 -i6 -y

예 12-9 캡슐화된 루트(/) 파일 시스템 복원(Veritas Volume Manager(VERITAS 볼륨 관리자))

다음 예에서는 테이프 장치 /dev/rmt/0에서 노드 phys-schost-1로 복원된 캡슐화된 루트(/) 파일 시스템을 보여 줍니다.

[Replace the failed disk and boot the node:]

Oracle Solaris OS CD에서 노드를 부트합니다. OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.

ok boot cdrom -s
...
[Use format and newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Create an empty install-db file:]
# touch /a/etc/vx/reconfig.d/state.d/install-db
[Edit /etc/system on the temporary file system and 
remove or comment out the following entries:]
    # rootdev:/pseudo/vxio@0:0
    # set vxio:vol_rootdev_is_volume=1
[Edit /etc/vfstab on the temporary file system:]
Example: 
Change from—
/dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no-

Change to—
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
[Unmount the temporary file system, then check the file system:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Reboot:]
# reboot
[Update the disk ID:]
# cldevice repair /dev/rdsk/c0t0d0
[Encapsulate the disk::]
# vxinstall
Choose to encapsulate the root disk.
[If a conflict  in minor number occurs, reminor the rootdg disk group:]
# umount /global/.devices/node@nodeid
# vxdg reminor rootdg 100
# shutdown -g0 -i6 -y

참조

캡슐화된 루트 디스크를 미러하는 방법에 대한 지침은 Oracle Solaris Cluster 소프트웨어 설치 설명서를 참조하십시오.