이 장에 있는 단계별 지시 사항 목록은 다음과 같습니다.
메타 장치에 있던 루트(/) 파일 시스템을 복원하는 방법(Solstice DiskSuite/Solaris 볼륨 관리자)
SPARC: 캡슐화되지 않은 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager)
작업 |
참고 항목 |
---|---|
백업하려는 파일 시스템 이름 찾기 | |
전체 백업을 저장하기 위해 필요한 테이프 수 계산 | |
루트 파일 시스템 백업 | |
미러 또는 플렉스 파일 시스템에 대해 온라인 백업 수행 | |
백업할 파일 시스템 이름을 확인하려면 다음 절차를 수행하십시오.
/etc/vfstab 파일의 내용을 표시합니다.
이 명령을 실행하기 위해 수퍼유저로 로그인할 필요는 없습니다.
% more /etc/vfstab |
백업하려는 파일 시스템의 이름을 마운트 지점 열에서 찾습니다.
파일 시스템을 백업할 때 이 이름을 사용하십시오.
% more /etc/vfstab |
다음은 /etc/vfstab 파일에 있는 사용 가능한 파일 시스템 이름을 표시한 예입니다.
% more /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # #/dev/dsk/c1d0s2 /dev/rdsk/c1d0s2 /usr ufs 1 yes - f - /dev/fd fd - no - /proc - /proc proc - no - /dev/dsk/c1t6d0s1 - - swap - no - /dev/dsk/c1t6d0s0 /dev/rdsk/c1t6d0s0 / ufs 1 no - /dev/dsk/c1t6d0s3 /dev/rdsk/c1t6d0s3 /cache ufs 2 yes - swap - /tmp tmpfs - yes - |
파일 시스템을 백업할 테이프 수를 계산하려면 다음 절차를 수행하십시오.
백업하려는 클러스터 노드에서 수퍼유저가 됩니다.
백업 크기를 바이트 단위로 계산합니다.
# ufsdump S filesystem |
백업을 수행하는 데 필요한 용량을 계산하여 바이트 단위로 표시합니다.
백업하려는 파일 시스템의 이름을 지정합니다.
필요한 테이프 수를 보려면 계산된 값을 테이프 용량으로 나눕니다.
다음 예에 있는 파일 시스템 크기 905,881,620바이트는 4GB 테이프에 쉽게 들어갑니다(905,881,620 ÷ 4,000,000,000).
# ufsdump S /global/phys-schost-1 905881620 |
클러스터 노드의 루트(/) 파일 시스템을 백업하려면 다음 절차를 수행하십시오. 백업 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.
백업하려는 클러스터 노드에서 수퍼유저가 됩니다.
백업할 노드에서 실행하는 데이터 서비스를 클러스터의 다른 노드로 전환합니다.
# scswitch -z -D disk-device-group[,...] -h node[,...] |
전환을 수행합니다.
전환될 디스크 장치 그룹의 이름입니다.
디스크 장치 그룹을 전환할 클러스터 노드의 이름을 지정합니다. 이 노드가 새 기본 노드가 됩니다.
노드를 종료합니다.
# shutdown -g0 -y -i0 |
SPARC:
ok boot -x |
x86:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
루트(/) 파일 시스템을 백업합니다.
루트 디스크가 캡슐화되지 않은 경우에는 다음 명령을 사용합니다.
# ufsdump 0ucf dump-device / |
루트 디스크가 캡슐화된 경우에는 다음 명령을 사용하십시오.
# ufsdump 0ucf dump-device /dev/vx/rdsk/rootvol |
자세한 내용은 ufsdump(1M) 설명서 페이지를 참조하십시오.
클러스터 모드로 노드를 재부트합니다.
# init 6 |
다음은 루트(/) 파일 시스템을 테이프 장치 /dev/rmt/0에 백업하는 예입니다.
# ufsdump 0ucf /dev/rmt/0 / DUMP: Writing 63 Kilobyte records DUMP: Date of this level 0 dump: Tue Apr 18 18:06:15 2000 DUMP: Date of last level 0 dump: the epoch DUMP: Dumping /dev/rdsk/c0t0d0s0 (phys-schost-1:/) to /dev/rmt/0 DUMP: Mapping (Pass I) [regular files] DUMP: Mapping (Pass II) [directories] DUMP: Estimated 859086 blocks (419.48MB). DUMP: Dumping (Pass III) [directories] DUMP: Dumping (Pass IV) [regular files] DUMP: 859066 blocks (419.47MB) on 1 volume at 2495 KB/sec DUMP: DUMP IS DONE DUMP: Level 0 dump on Tue Apr 18 18:06:15 2000 |
미러된 메타 장치는 마운트 해제하거나 전체 미러를 오프라인으로 전환하지 않고도 백업할 수 있습니다. 하위 미러 중 하나는 일시적으로 오프라인으로 전환하여 미러링을 제거해야 하지만 백업이 완료되면 바로 온라인으로 전환되어 동기화되므로 시스템이 중단되거나 데이터에 대한 사용자의 액세스를 거부하지 않습니다. 미러를 사용하여 온라인 백업을 수행하면 현재 작동하는 파일 시스템의 “스냅샷”이 백업됩니다.
lockfs 명령이 실행되기 직전에 프로그램에서 볼륨에 데이터를 쓰면 문제가 발생할 수 있습니다. 이 문제를 방지하려면, 이 노드에서 실행되는 모든 서비스를 일시적으로 중지하십시오. 또한, 백업 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.
백업하려는 클러스터 노드에서 수퍼유저가 됩니다.
metaset(1M) 명령을 사용하여 백업 볼륨에 대한 소유권이 있는 노드를 확인합니다.
# metaset -s setname |
디스크 세트 이름을 지정합니다.
lockfs(1M) 명령에 -w 옵션을 사용하여 파일 시스템에 쓰지 못하도록 잠급니다.
# lockfs -w mountpoint |
UFS 파일 시스템이 미러에 있는 경우에만 파일 시스템을 잠가야 합니다. 예를 들어, 메타 장치가 데이터베이스 관리 소프트웨어 또는 기타 특정 응용 프로그램의 원시 장치로 설정된 경우 lockfs 명령을 사용할 필요가 없습니다. 그러나 공급업체에서 제공하는 유틸리티를 실행하여 버퍼를 비우고 액세스를 잠글 수도 있습니다.
metastat(1M) 명령을 사용하여 하위 미러의 이름을 결정합니다.
# metastat -s setname -p |
md.tab 파일과 유사한 형식으로 상태를 표시합니다.
metadetach(1M) 명령을 사용하여 미러에서 하위 미러 하나를 오프라인으로 전환합니다.
# metadetach -s setname mirror submirror |
읽기 기능은 다른 하위 미러에서 계속 제공합니다. 그러나 미러에 첫 번째 쓰기 작업이 수행되면 그 때부터 오프라인 상태의 하위 미러에 대한 동기화가 수행되지 않습니다. 오프라인 상태의 하위 미러가 다시 온라인 상태로 전환되면 이러한 불일치 문제가 해결됩니다. fsck 명령은 실행하지 않아도 됩니다.
lockfs 명령에 -u 옵션을 사용하여 파일 시스템 잠금을 해제하고 쓰기 기능을 계속 제공합니다.
# lockfs -u mountpoint |
파일 시스템 검사를 수행합니다.
# fsck /dev/md/diskset/rdsk/submirror |
오프라인 상태의 하위 미러를 테이프나 다른 백업 매체에 백업합니다.
ufsdump(1M) 명령이나 평소 사용하는 백업 유틸리티를 사용합니다.
# ufsdump 0ucf dump-device submirror |
하위 미러에 대해 블록 장치(/dsk) 이름이 아닌 원시 장치(/rdsk) 이름을 사용하십시오.
metattach(1M) 명령을 사용하여 메타 장치 백업을 온라인으로 전환합니다.
# metattach -s setname mirror submirror |
메타 장치가 온라인으로 전환되면 자동으로 다시 미러와 동기화됩니다.
metastat 명령을 사용하여 하위 미러가 다시 동기화되는지 확인합니다.
# metastat -s setname mirror |
다음 예에서 클러스터 노드 phys-schost-1이 메타 세트 schost-1을 소유하는 노드입니다. 따라서 phys-schost-1에서 백업 절차가 수행됩니다. 미러 /dev/md/schost-1/dsk/d0은 하위 미러 d10, d20 및 d30으로 구성되어 있습니다.
[메타 세트의 소유권 확인] # metaset -s schost-1 Set name = schost-1, Set number = 1 Host Owner phys-schost-1 Yes ... [쓰지 못하도록 파일 시스템 잠금] # lockfs -w /global/schost-1 [하위 미러 나열] # metastat -s schost-1 -p schost-1/d0 -m schost-1/d10 schost-1/d20 schost-1/d30 1 schost-1/d10 1 1 d4s0 schost-1/d20 1 1 d6s0 schost-1/d30 1 1 d8s0 [하나의 하위 미러 오프라인화] # metadetach -s schost-1 d0 d30 [파일 시스템 잠금 해제] # lockfs -u / [파일 시스템 검사] # fsck /dev/md/schost-1/rdsk/d30 [해당 하위 미러를 백업 장치에 복사] # ufsdump 0ucf /dev/rmt/0 /dev/md/schost-1/rdsk/d30 DUMP: Writing 63 Kilobyte records DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000 DUMP: Date of last level 0 dump: the epoch DUMP: Dumping /dev/md/schost-1/rdsk/d30 to /dev/rdsk/c1t9d0s0. ... DUMP: DUMP IS DONE [해당 하위 미러를 다시 온라인화] # metattach -s schost-1 d0 d30 schost-1/d0: submirror schost-1/d30 is attached [해당 하위 미러를 다시 동기화] # metastat -s schost-1 d0 schost-1/d0: Mirror Submirror 0: schost-0/d10 State: Okay Submirror 1: schost-0/d20 State: Okay Submirror 2: schost-0/d30 State: Resyncing Resync in progress: 42% done Pass: 1 Read option: roundrobin (default) ... |
VERITAS Volume Manager는 미러된 볼륨을 플렉스로 식별합니다. 플렉스는 전체 볼륨을 마운트 해제하거나 오프라인으로 전환하지 않고 백업할 수 있습니다. 이 백업은 시스템을 중지시키거나 데이터에 대한 사용자의 액세스를 거부하지 않고 볼륨의 스냅샷 사본을 만들고 이 임시 볼륨을 백업하는 방법으로 수행합니다.
백업 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.
클러스터의 노드에 로그온한 다음 클러스터에 있는 디스크 그룹의 현재 기본 노드에서 수퍼유저가 됩니다.
디스크 그룹 정보를 표시합니다.
# vxprint -g diskgroup |
scstat(1M) 명령을 실행하여 현재 가져온 디스크 그룹이 어느 노드에 있는지 확인합니다. 이 노드가 디스크 그룹에 대한 기본 노드입니다.
# scstat -D |
모든 디스크 장치 그룹의 상태를 표시합니다.
vxassist 명령을 사용하여 볼륨에 대한 스냅샷을 만듭니다.
# vxassist -g diskgroup snapstart volume |
볼륨 크기에 따라 스냅샷을 만드는 시간이 오래 걸릴 수 있습니다.
새 볼륨이 만들어졌는지 확인합니다.
# vxprint -g diskgroup |
스냅샷이 완성되면 선택한 디스크 그룹에 대한 State 필드에 Snapdone이라고 표시됩니다.
파일 시스템에 액세스하는 데이터 서비스를 중지시킵니다.
# scswitch -z -g resource-group[,...] -h ““ |
데이터 파일 시스템이 제대로 백업되려면 모든 데이터 서비스를 중지시켜야 합니다. 실행 중인 데이터 서비스가 없다면 단계 6 및 단계 8을 실행할 필요가 없습니다.
bkup-vol이라는 이름으로 백업 볼륨을 만들고 vxassist 명령을 사용하여 스냅샷 볼륨을 이 볼륨에 연결합니다.
# vxassist -g diskgroup snapshot volume bkup-vol |
scswitch(1M) 명령을 사용하여 단계 6에서 중단된 데이터 서비스를 다시 시작합니다.
# scswitch -z -g resource-group[,...] -h node[,...] |
vxprint 명령을 사용하여 볼륨이 새 볼륨 bkup-vol에 연결되었는지 확인합니다.
# vxprint -g diskgroup |
디스크 그룹 구성의 변경 사항을 등록합니다.
# scconf -c -D name=diskgroup,sync |
fsck 명령을 사용하여 백업 볼륨을 확인합니다.
# fsck -y /dev/vx/rdsk/diskgroup/bkup-vol |
테이프 또는 다른 매체에 볼륨 bkup-vol을 복사하는 백업을 수행합니다.
ufsdump(1M) 명령이나 평소 사용하는 백업 유틸리티를 사용합니다.
# ufsdump 0ucf dump-device /dev/vx/dsk/diskgroup/bkup-vol |
vxedit 명령을 사용하여 임시 볼륨을 제거합니다.
# vxedit -rf rm bkup-vol |
scconf(1M) 명령을 사용하여 디스크 그룹 구성 변경 사항을 등록합니다.
# scconf -c -D name=diskgroup,sync |
다음 예에서 클러스터 노드 phys-schost-2는 메타 세트 디스크 그룹 schost-1의 기본 소유자이므로, 백업 절차가 phys-schost-2에서 수행됩니다. 볼륨 /vo101이 복사된 다음 새 볼륨 bkup-vol에 연결됩니다.
[기본 노드에서 수퍼유저가 됩니다.] [디스크 그룹에 대한 현재 기본 노드 식별] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: rmt/1 - - Device group servers: schost-1 phys-schost-2 phys-schost-1 -- Device Group Status -- Device Group Status ------------ ------ Device group status: rmt/1 Offline Device group status: schost-1 Online [디스크 그룹 정보 나열] # vxprint -g schost-1 TY NAME ASSOC KSTATE LENGTH PLOFFS STATE TUTIL0 PUTIL0 dg schost-1 schost-1 - - - - - - dm schost-101 c1t1d0s2 - 17678493 - - - - dm schost-102 c1t2d0s2 - 17678493 - - - - dm schost-103 c2t1d0s2 - 8378640 - - - - dm schost-104 c2t2d0s2 - 17678493 - - - - dm schost-105 c1t3d0s2 - 17678493 - - - - dm schost-106 c2t3d0s2 - 17678493 - - - - v vol01 gen ENABLED 204800 - ACTIVE - - pl vol01-01 vol01 ENABLED 208331 - ACTIVE - - sd schost-101-01 vol01-01 ENABLED 104139 0 - - - sd schost-102-01 vol01-01 ENABLED 104139 0 - - - pl vol01-02 vol01 ENABLED 208331 - ACTIVE - - sd schost-103-01 vol01-02 ENABLED 103680 0 - - - sd schost-104-01 vol01-02 ENABLED 104139 0 - - - pl vol01-03 vol01 ENABLED LOGONLY - ACTIVE - - sd schost-103-02 vol01-03 ENABLED 5 LOG - - - [스냅샷 작업 시작] # vxassist -g schost-1 snapstart vol01 [새 볼륨이 만들어졌는지 확인] # vxprint -g schost-1 TY NAME ASSOC KSTATE LENGTH PLOFFS STATE TUTIL0 PUTIL0 dg schost-1 schost-1 - - - - - - dm schost-101 c1t1d0s2 - 17678493 - - - - dm schost-102 c1t2d0s2 - 17678493 - - - - dm schost-103 c2t1d0s2 - 8378640 - - - - dm schost-104 c2t2d0s2 - 17678493 - - - - dm schost-105 c1t3d0s2 - 17678493 - - - - dm schost-106 c2t3d0s2 - 17678493 - - - - v vol01 gen ENABLED 204800 - ACTIVE - - pl vol01-01 vol01 ENABLED 208331 - ACTIVE - - sd schost-101-01 vol01-01 ENABLED 104139 0 - - - sd schost-102-01 vol01-01 ENABLED 104139 0 - - - pl vol01-02 vol01 ENABLED 208331 - ACTIVE - - sd schost-103-01 vol01-02 ENABLED 103680 0 - - - sd schost-104-01 vol01-02 ENABLED 104139 0 - - - pl vol01-03 vol01 ENABLED LOGONLY - ACTIVE - - sd schost-103-02 vol01-03 ENABLED 5 LOG - - - pl vol01-04 vol01 ENABLED 208331 - SNAPDONE - - sd schost-105-01 vol01-04 ENABLED 104139 0 - - - sd schost-106-01 vol01-04 ENABLED 104139 0 - - - [필요한 경우 데이터 서비스 중지] # scswitch -z -g nfs-rg -h ““ [해당 볼륨의 복사본 만들기] # vxassist -g schost-1 snapshot vol01 bkup-vol [필요한 경우 데이터 서비스 다시 시작] # scswitch -z -g nfs-rg -h phys-schost-1 [bkup-vol이 만들어졌는지 확인] # vxprint -g schost-1 TY NAME ASSOC KSTATE LENGTH PLOFFS STATE TUTIL0 PUTIL0 dg schost-1 schost-1 - - - - - - dm schost-101 c1t1d0s2 - 17678493 - - - - ... v bkup-vol gen ENABLED 204800 - ACTIVE - - pl bkup-vol-01 bkup-vol ENABLED 208331 - ACTIVE - - sd schost-105-01 bkup-vol-01 ENABLED 104139 0 - - - sd schost-106-01 bkup-vol-01 ENABLED 104139 0 - - - v vol01 gen ENABLED 204800 - ACTIVE - - pl vol01-01 vol01 ENABLED 208331 - ACTIVE - - sd schost-101-01 vol01-01 ENABLED 104139 0 - - - sd schost-102-01 vol01-01 ENABLED 104139 0 - - - pl vol01-02 vol01 ENABLED 208331 - ACTIVE - - sd schost-103-01 vol01-02 ENABLED 103680 0 - - - sd schost-104-01 vol01-02 ENABLED 104139 0 - - - pl vol01-03 vol01 ENABLED LOGONLY - ACTIVE - - sd schost-103-02 vol01-03 ENABLED 5 LOG - - - [클러스터 프레임워크를 사용하여 디스크 그룹 동기화] # scconf -c -D name=schost-1,sync [파일 시스템 검사] # fsck -y /dev/vx/rdsk/schost-1/bkup-vol [bkup-vol을 백업 장치에 복사] # ufsdump 0ucf /dev/rmt/0 /dev/vx/rdsk/schost-1/bkup-vol DUMP: Writing 63 Kilobyte records DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000 DUMP: Date of last level 0 dump: the epoch DUMP: Dumping /dev/vx/dsk/schost-2/bkup-vol to /dev/rmt/0. ... DUMP: DUMP IS DONE [bkup-vol 제거] # vxedit -rf rm bkup-vol [디스크 그룹 동기화] # scconf -c -D name=schost-1,sync |
ufsrestore(1M) 명령은 ufsdump(1M) 명령을 사용하여 만들어진 백업의 파일을 현재 작업 디렉토리를 기준으로 한 디스크로 복사합니다. ufsrestore를 사용하여 전체 파일 시스템 계층 구조를 레벨 0 덤프 및 이후 증분 덤프로부터 재로드하거나 임의의 덤프 테이프에서 하나 이상의 단일 파일을 복원할 수 있습니다. 수퍼유저 권한으로 ufsrestore를 실행하면 파일이 원래 소유자, 마지막 수정 시간 및 모드(사용 권한)와 함께 복원됩니다.
파일이나 파일 시스템을 복원하려면 먼저 다음 정보를 알아야 합니다.
필요한 테이프
파일 시스템을 복원하려는 원시 장치 이름
사용할 테이프 드라이브의 유형
테이프 드라이브에 대한 장치 이름(로컬 또는 원격)
실패한 모든 디스크에 대한 분할 영역 구조(분할 영역 및 파일 시스템이 대체 디스크에 정확히 복사되어야 하기 때문임)
작업 |
참고 항목 |
---|---|
Solstice DiskSuite/Solaris 볼륨 관리자의 경우에 Solaris 복원 절차에 따라 대화식으로 파일 복원 | |
Solstice DiskSuite/Solaris 볼륨 관리자의 경우에 루트(/) 파일 시스템 복원 | |
|
메타 장치에 있던 루트(/) 파일 시스템을 복원하는 방법(Solstice DiskSuite/Solaris 볼륨 관리자) |
VERITAS Volume Manager의 경우에 캡슐화되지 않은 루트(/) 파일 시스템 복원 |
SPARC: 캡슐화되지 않은 루트(/) 파일 시스템을 복원하는 방법(VERITAS Volume Manager) |
VERITAS Volume Manager의 경우에 캡슐화된 루트(/) 파일 시스템 복원 |
하나 이상의 개별 파일을 복원하려면 다음 절차를 수행하십시오. 복원 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.
복원하려는 클러스터 노드에서 수퍼유저가 됩니다.
복원하는 파일을 사용하는 데이터 서비스를 모두 중지시킵니다.
# scswitch -z -g resource-group[,...] -h ““ |
ufsrestore 명령을 사용하여 파일을 복원합니다.
손상된 루트 디스크를 교체한 경우를 비롯하여 새 디스크에 루트(/) 파일 시스템을 복원하려면 다음 절차를 수행하십시오. 복원하는 노드를 부트하면 안됩니다. 복원 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.
장애가 발생한 디스크와 동일한 파일 시스템을 사용하여 새 디스크를 분할해야 하기 때문에 이 절차를 시작하기 전에 분할 영역 구조를 확인하고 필요한 파일 시스템을 다시 만드십시오.
복원하려는 노드를 제외한 노드 중에서 메타 세트에 액세스할 수 있는 클러스터 노드에서 수퍼유저가 됩니다.
모든 메타 세트에서 복원되는 노드의 호스트 이름을 제거합니다.
제거하는 노드가 아닌 메타 세트의 노드에서 이 명령을 실행하십시오.
# metaset -s setname -f -d -h nodelist |
디스크 세트 이름을 지정합니다.
강제로 실행합니다.
디스크 세트에서 삭제합니다.
디스크 세트에서 삭제할 노드의 이름을 지정합니다.
루트(/) 파일 시스템을 복원할 노드에서 장애가 발생한 디스크를 교체합니다.
서버와 함께 제공되는 문서에서 디스크를 교체하는 절차를 참조하십시오.
SPARC: OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.
ok boot cdrom -s |
x86: 시스템의 CD 드라이브에 CD를 삽입한 다음 시스템을 종료하고 전원을 껐다 켜는 방법으로 부트합니다. Current Boot Parameters 화면에서 다음 명령을 입력합니다.
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@ 7,1/sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -s |
Solaris JumpStart TM 서버를 사용하는 경우
SPARC: OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.
ok boot net -s |
x86: 시스템을 종료한 다음 전원을 껐다 켜는 방법으로 부트합니다. Current Boot Parameters 화면에서 다음 명령을 입력합니다.
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@ 7,1/sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -s |
format(1M) 명령을 사용하여 루트 디스크에 모든 분할 영역과 스왑 공간을 만듭니다.
장애가 발생한 디스크와 동일한 분할 영역 구조를 다시 만드십시오.
newfs(1M) 명령을 사용하여 루트(/) 파일 시스템과 필요한 다른 파일 시스템을 만듭니다.
장애가 발생한 디스크와 동일한 파일 시스템을 다시 만드십시오.
/global/.devices/node@nodeid 파일 시스템을 만들어야 합니다.
임시 마운트 지점에 루트(/) 파일 시스템을 마운트합니다.
# mount device temp-mountpoint |
다음 명령을 사용하여 루트(/) 파일 시스템을 복원합니다.
# cd temp-mountpoint # ufsrestore rvf dump-device # rm restoresymtable # cd / # umount temp-mountpoint # fsck raw-disk-device |
이제 파일 시스템이 복원되었습니다.
새 디스크에 새 부트 블록을 설치합니다.
# /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device |
단일 사용자 모드로 노드를 재부트합니다.
# reboot -- "-s" |
scdidadm(1M) 명령을 사용하여 디스크 ID를 바꿉니다.
# scdidadm -R rootdisk |
metadb(1M) 명령을 사용하여 상태 데이터베이스 복제본을 다시 만듭니다.
# metadb -c copies -af raw-disk-device |
만들 복제본의 수를 지정합니다.
복제본을 만들 원시 디스크 장치입니다.
복제본을 추가합니다.
클러스터 모드로 노드를 재부트합니다.
복원된 노드가 아닌 클러스터 노드에서 metaset 명령을 사용하여 복원된 노드를 모든 메타 세트에 추가합니다.
phys-schost-2# metaset -s setname -a -h nodelist |
호스트를 생성하고 이를 디스크 세트에 추가합니다.
노드가 클러스터 모드로 재부트됩니다. 이제 클러스터를 사용할 준비가 되었습니다.
다음은 테이프 장치 /dev/rmt/0에서 노드 phys-schost-1로 루트(/) 파일 시스템을 복원하는 예입니다. 노드 phys-schost-1을 제거하고 나중에 다시 디스크 세트 schost-1에 추가하기 위해 클러스터의 다른 노드 phys-schost-2에서 metaset 명령이 실행됩니다. 다른 명령은 모두 phys-schost-1에서 실행됩니다. 새 부트 블록이 /dev/rdsk/c0t0d0s0에 생성되고 3개의 상태 데이터베이스 복제본이 /dev/rdsk/c0t0d0s4에 만들어집니다.
[복원하려는 노드를 제외한 다른 클러스터 노드에서 수퍼유저가 됩니다.] [메타 세트에서 노드 제거] phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1 [장애가 발생한 디스크 교체 및 노드 부트] |
SPARC: OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.
ok boot cdrom -s |
x86: 시스템의 CD 드라이브에 CD를 삽입한 다음 시스템을 종료하고 전원을 껐다 켜는 방법으로 부트합니다. Current Boot Parameters 화면에서 다음 명령을 입력합니다.
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -s |
[format과 newfs를 사용하여 분할 영역 및 파일 시스템 다시 만들기] [임시 마운트 지점에 루트 파일 시스템을 마운트] # mount /dev/dsk/c0t0d0s0 /a [루트 파일 시스템 복원] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [새 부트 블록 설치] # /usr/sbin/installboot /usr/platform/`uname \ -i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [단일 사용자 모드로 재부트] # reboot -- "-s" [디스크 ID 교체] # scdidadm -R /dev/dsk/c0t0d0 [상태 데이터베이스 복제본 다시 만들기] # metadb -c 3 -af /dev/rdsk/c0t0d0s4 # reboot CTRL-d를 눌러 복수 사용자 모드로 부트하십시오. [메타 세트에 노드를 다시 추가] phys-schost-2# metaset -s schost-1 -a -h phys-schost-1 |
백업을 수행한 당시 메타 장치에 있던 루트( /) 파일 시스템을 다시 복원하려면 다음 절차를 수행하십시오. 루트 디스크가 손상되어 새 디스크로 교체하는 경우와 같은 상황에서 이 절차를 수행하십시오. 복원하는 노드를 부트하면 안됩니다. 복원 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.
장애가 발생한 디스크와 동일한 파일 시스템을 사용하여 새 디스크를 분할해야 하기 때문에 이 절차를 시작하기 전에 분할 영역 구조를 확인하고 필요한 파일 시스템을 다시 만드십시오.
복원하려는 노드를 제외한 노드 중에서 메타 세트에 액세스할 수 있는 클러스터 노드에서 수퍼유저가 됩니다.
모든 메타 세트에서 복원되는 노드의 호스트 이름을 제거합니다.
# metaset -s setname -f -d -h nodelist |
메타 세트 이름을 지정합니다.
강제로 실행합니다.
메타 세트에서 삭제합니다.
메타 세트에서 삭제할 노드의 이름을 지정합니다.
루트(/) 파일 시스템을 복원할 노드에서 장애가 발생한 디스크를 교체합니다.
서버와 함께 제공되는 설명서에서 디스크를 교체하는 절차를 참조하십시오.
SPARC: OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.
ok boot cdrom -s |
x86: 시스템의 CD 드라이브에 CD를 삽입한 다음 시스템을 종료하고 전원을 껐다 켜는 방법으로 부트합니다. Current Boot Parameters 화면에서 다음 명령을 입력합니다.
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@ 7,1/sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -s |
Solaris JumpStart TM 서버를 사용하는 경우
SPARC: OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.
ok boot net -s |
x86: 시스템을 종료한 다음 전원을 껐다 켜는 방법으로 부트합니다. Current Boot Parameters 화면에서 다음 명령을 입력합니다.
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@ 7,1/sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -s |
format 명령을 사용하여 루트 디스크에 모든 분할 영역과 스왑 공간을 만듭니다.
장애가 발생한 디스크와 동일한 분할 영역 구조를 다시 만드십시오.
newfs 명령을 사용하여 루트(/) 파일 시스템과 필요한 다른 파일 시스템을 만듭니다.
장애가 발생한 디스크와 동일한 파일 시스템을 다시 만드십시오.
/global/.devices/node@nodeid 파일 시스템을 만들어야 합니다.
임시 마운트 지점에 루트(/) 파일 시스템을 마운트합니다.
# mount device temp-mountpoint |
다음 명령을 사용하여 루트(/) 파일 시스템을 복원합니다.
# cd temp-mountpoint # ufsrestore rvf dump-device # rm restoresymtable |
새 디스크에 새 부트 블록을 설치합니다.
# /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device |
/temp-mountpoint/etc/system 파일에서 MDD 루트 정보에 대한 행을 제거합니다.
* Begin MDD root info (do not edit) forceload: misc/md_trans forceload: misc/md_raid forceload: misc/md_mirror forceload: misc/md_hotspares forceload: misc/md_stripe forceload: drv/pcipsy forceload: drv/glm forceload: drv/sd rootdev:/pseudo/md@0:0,10,blk * End MDD root info (do not edit) |
/temp-mountpoint/etc/vfstab 파일을 편집하여 메타 장치의 루트 항목을 메타 장치에 포함된 루트 디스크의 각 파일 시스템에 해당하는 일반 슬라이스로 변경합니다.
예: 변경 전— /dev/md/dsk/d10 /dev/md/rdsk/d10 / ufs 1 no - 변경 후— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 / ufs 1 no - |
임시 파일 시스템을 마운트 해제하고 원시 디스크 장치를 검사합니다.
# cd / # umount temp-mountpoint # fsck raw-disk-device |
단일 사용자 모드로 노드를 재부트합니다.
# reboot -- "-s" |
scdidadm 명령을 사용하여 디스크 ID를 교체합니다.
# scdidadm -R rootdisk |
metadb 명령을 사용하여 상태 데이터베이스 복제본을 다시 만듭니다.
# metadb -c copies -af raw-disk-device |
만들 복제본의 수를 지정합니다.
이름이 지정된 원시 디스크 장치에 초기 상태 데이터베이스 복제본을 만듭니다.
클러스터 모드로 노드를 재부트합니다.
복원된 노드가 아닌 다른 클러스터 노드에서 metaset 명령을 사용하여 복원된 노드를 모든 메타 세트에 추가합니다.
phys-schost-2# metaset -s setname -a -h nodelist |
메타 세트를 만들어 추가합니다.
Solstice DiskSuite 문서의 설명에 따라 루트(/)에 대해 메타 장치/미러를 설정하십시오.
노드가 클러스터 모드로 재부트됩니다. 이제 클러스터를 사용할 준비가 되었습니다.
다음은 테이프 장치 /dev/rmt/0에서 노드 phys-schost-1로 루트(/) 파일 시스템을 복원하는 예입니다. 노드 phys-schost-1을 제거하고 나중에 다시 메타 세트 schost-1에 추가하기 위해 클러스터의 다른 노드 phys-schost-2에서 metaset 명령이 실행됩니다. 다른 명령은 모두 phys-schost-1에서 실행됩니다. 새 부트 블록이 /dev/rdsk/c0t0d0s0에 생성되고 3개의 상태 데이터베이스 복제본이 /dev/rdsk/c0t0d0s4에 만들어집니다.
[복원하려는 노드를 제외한 노드 중에서 메타 세트에 액세스할 수 있는 클러스터 노드에서 수퍼유저가 됩니다.] [메타 세트에서 노드 제거] phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1 [장애가 발생한 디스크 교체 및 노드 부트] |
Solaris CD에서 노드를 부트합니다.
SPARC: OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.
ok boot cdrom -s |
x86: 시스템의 CD 드라이브에 CD를 삽입한 다음 시스템을 종료하고 전원을 껐다 켜는 방법으로 부트합니다. Current Boot Parameters 화면에서 다음 명령을 입력합니다.
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -s |
[format과 newfs를 사용하여 분할 영역 및 파일 시스템 다시 만들기] [임시 마운트 지점에 루트 파일 시스템을 마운트] # mount /dev/dsk/c0t0d0s0 /a [루트 파일 시스템 복원] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable [새 부트 블록 설치] # /usr/sbin/installboot /usr/platform/`uname \ -i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [/temp-mountpoint/etc/system 파일에서 MDD 루트 정보에 대한 행 제거] * Begin MDD root info (do not edit) forceload: misc/md_trans forceload: misc/md_raid forceload: misc/md_mirror forceload: misc/md_hotspares forceload: misc/md_stripe forceload: drv/pcipsy forceload: drv/glm forceload: drv/sd rootdev:/pseudo/md@0:0,10,blk * End MDD root info (do not edit) [/temp-mountpoint/etc/vfstab 파일 편집] 예: 변경 전— /dev/md/dsk/d10 /dev/md/rdsk/d10 / ufs 1 no - 변경 후— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 /usr ufs 1 no - [임시 파일 시스템 마운트 해제 및 원시 디스크 장치 검사] # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [단일 사용자 모드로 재부트] # reboot -- "-s" [디스크 ID 교체] # scdidadm -R /dev/dsk/c0t0d0 [상태 데이터베이스 복제본 다시 만들기] # metadb -c 3 -af /dev/rdsk/c0t0d0s4 # reboot CTRL-d를 눌러 복수 사용자로 모드로 부트하십시오. [메타 세트에 노드 블록 추가] phys-schost-2# metaset -s schost-1 -a -h phys-schost-1 |
캡슐화되지 않은 루트(/) 파일 시스템을 노드로 복원하려면 다음 절차를 수행하십시오. 복원하는 노드를 부트하면 안됩니다. 복원 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.
장애가 발생한 디스크와 동일한 파일 시스템을 사용하여 새 디스크를 분할해야 하기 때문에 이 절차를 시작하기 전에 분할 영역 구조를 확인하고 필요한 파일 시스템을 다시 만드십시오.
루트 파일 시스템이 복원될 노드에서 오류가 발생한 디스크를 교체합니다.
서버와 함께 제공되는 문서에서 디스크를 교체하는 절차를 참조하십시오.
Solaris CD를 사용하는 경우 OpenBoot PROM ok프롬프트에서 다음 명령을 입력합니다.
ok boot cdrom -s |
Solaris JumpStart TM 서버를 사용하는 경우 OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.
ok boot net -s |
format 명령을 사용하여 루트 디스크에 모든 분할 영역과 스왑 공간을 만듭니다.
장애가 발생한 디스크와 동일한 분할 영역 구조를 다시 만드십시오.
newfs 명령을 사용하여 루트(/) 파일 시스템과 필요한 다른 파일 시스템을 만듭니다.
장애가 발생한 디스크와 동일한 파일 시스템을 다시 만드십시오.
/global/.devices/node@nodeid 파일 시스템을 만들어야 합니다.
임시 마운트 지점에 루트(/) 파일 시스템을 마운트합니다.
# mount device temp-mountpoint |
백업에서 루트(/) 파일 시스템을 복원하고 파일 시스템 마운트를 해제한 다음 검사합니다.
# cd temp-mountpoint # ufsrestore rvf dump-device # rm restoresymtable # cd / # umount temp-mountpoint # fsck raw-disk-device |
이제 파일 시스템이 복원되었습니다.
새 디스크에 새 부트 블록을 설치합니다.
# /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device |
단일 사용자 모드로 노드를 재부트합니다.
scdidadm 명령을 사용하여 디스크 ID를 업데이트하십시오.
# scdidadm -R /dev/rdsk/disk-device |
CTRL-d를 눌러 복수 사용자 모드로 다시 시작합니다.
노드가 클러스터 모드로 재부트됩니다. 이제 클러스터를 사용할 준비가 되었습니다.
다음은 테이프 장치 /dev/rmt/0에서 노드 phys-schost-1로 캡슐화되지 않은 루트(/) 파일 시스템을 복원하는 예입니다.
[장애가 발생한 디스크 교체 및 노드 부트] |
Solaris CD에서 노드를 부트합니다. OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.
ok boot cdrom -s ... [format과 newfs를 사용하여 분할 영역 및 파일 시스템 다시 만들기] [임시 마운트 지점에 루트 파일 시스템을 마운트] # mount /dev/dsk/c0t0d0s0 /a [루트 파일 시스템 복원] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [새 부트 블록 설치] # /usr/sbin/installboot /usr/platform/`uname \ -i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [단일 사용자 모드로 재부트] # reboot -- "-s" [디스크 ID 업데이트] # scdidadm -R /dev/rdsk/c0t0d0 [CTRL-d를 눌러 복수 사용자 모드로 다시 시작] |
캡슐화된 루트(/) 파일 시스템을 노드로 복원하려면 다음 절차를 수행하십시오. 복원하는 노드를 부트하면 안됩니다. 복원 절차를 수행하기 전에 클러스터가 문제 없이 실행되는지 확인하십시오.
장애가 발생한 디스크와 동일한 파일 시스템을 사용하여 새 디스크를 분할해야 하기 때문에 이 절차를 시작하기 전에 분할 영역 구조를 확인하고 필요한 파일 시스템을 다시 만드십시오.
루트 파일 시스템을 복원할 노드에서 장애가 발생한 디스크를 교체합니다.
서버와 함께 제공되는 문서에서 디스크를 교체하는 절차를 참조하십시오.
Solaris CD를 사용하는 경우 OpenBoot PROM ok프롬프트에서 다음 명령을 입력합니다.
ok boot cdrom -s |
Solaris JumpStart TM 서버를 사용하는 경우 OpenBoot PROM ok 프롬프트에서 다음 명령을 입력합니다.
ok boot net -s |
format 명령을 사용하여 루트 디스크에 모든 분할 영역과 스왑 공간을 만듭니다.
장애가 발생한 디스크와 동일한 분할 영역 구조를 다시 만드십시오.
newfs 명령을 사용하여 루트(/) 파일 시스템과 필요한 다른 파일 시스템을 만듭니다.
장애가 발생한 디스크와 동일한 파일 시스템을 다시 만드십시오.
/global/.devices/node@nodeid 파일 시스템을 만들어야 합니다.
임시 마운트 지점에 루트(/) 파일 시스템을 마운트합니다.
# mount device temp-mountpoint |
백업에서 루트(/) 파일 시스템을 복원합니다.
# cd temp-mountpoint # ufsrestore rvf dump-device # rm restoresymtable |
비어 있는 install-db 파일을 만듭니다.
그러면 다음에 재부트할 때 노드가 VxVM 설치 모드로 부트됩니다.
# touch /temp-mountpoint/etc/vx/reconfig.d/state.d/install-db |
/ temp-mountpoint/etc/system 파일에서 다음 항목을 제거하거나 주석 표시를 합니다.
* rootdev:/pseudo/vxio@0:0 * set vxio:vol_rootdev_is_volume=1 |
/temp-mountpoint/etc/vfstab 파일을 편집하여 모든 VxVM 마운트 지점을 /dev/dsk/c0t0d0s0과 같은 루트 디스크의 표준 디스크 장치로 교체합니다.
예: 변경 전— /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no - 변경 후— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 / ufs 1 no - |
임시 파일 시스템 마운트를 해제하고 파일 시스템을 검사합니다.
# cd / # umount temp-mountpoint # fsck raw-disk-device |
새 디스크에 새 부트 블록을 설치합니다.
# /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device |
단일 사용자 모드로 노드를 재부트합니다.
# reboot -- "-s" |
scdidadm(1M) 명령을 사용하여 디스크 ID를 업데이트합니다.
# scdidadm -R /dev/rdsk/c0t0d0 |
vxinstall 명령을 실행하여 디스크를 캡슐화하고 재부트합니다.
# vxinstall |
부 번호에 다른 시스템과의 충돌이 있으면 전역 장치 마운트를 취소한 후 디스크 그룹을 가져옵니다.
클러스터 노드에서 전역 장치 파일 시스템의 마운트를 해제하십시오.
# umount /global/.devices/node@nodeid |
클러스터 노드에서 rootdg 디스크 그룹 부 번호를 다시 지정하십시오.
# vxdg reminor rootdg 100 |
노드를 종료하고 클러스터 모드로 재부트합니다.
# shutdown -g0 -i6 -y |
다음은 테이프 장치 /dev/rmt/0에서 노드 phys-schost-1로 캡슐화된 루트(/) 파일 시스템을 복원하는 예입니다.
[장애가 발생한 디스크 교체 및 노드 부트] |
Solaris CD에서 노드를 부트합니다. OpenBoot PROM ok 프롬프트에서 다음 명령을 입력하십시오.
ok boot cdrom -s ... [format과 newfs를 사용하여 분할 영역 및 파일 시스템 다시 만들기] [임시 마운트 지점에 루트 파일 시스템을 마운트] # mount /dev/dsk/c0t0d0s0 /a [루트 파일 시스템 복원] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable [비어 있는 install-db 파일 만들기] # touch /a/etc/vx/reconfig.d/state.d/install-db [임시 파일 시스템에서 /etc/system을 편집하고 다음 항목을 제거하거나 주석 처리] # rootdev:/pseudo/vxio@0:0 # set vxio:vol_rootdev_is_volume=1 [임시 파일 시스템에서 /etc/vfstab를 편집] 예: 변경 전— /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no- 변경 후— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 / ufs 1 no - [임시 파일 시스템을 마운트 해제하고 파일 시스템 검사] # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [새 부트 블록 설치] # /usr/sbin/installboot /usr/platform/`uname \ -i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [단일 사용자 모드로 재부트] # reboot -- "-s" [디스크 ID 업데이트] # scdidadm -R /dev/rdsk/c0t0d0 [vxinstall 실행] # vxinstall Choose to encapsulate the root disk. [부 번호에 충돌이 있는 경우 rootdg 디스크 그룹을 다시 미러] # umount /global/.devices/node@nodeid # vxdg reminor rootdg 100 # shutdown -g0 -i6 -y |
캡슐화된 루트 디스크를 미러하는 방법에 대한 내용은 Solaris OS용 Sun Cluster 소프트웨어 설치 안내서를 참조하십시오.