탐색 링크 건너뛰기 | |
인쇄 보기 종료 | |
Oracle Solaris 11.1 관리: ZFS 파일 시스템 Oracle Solaris 11.1 Information Library (한국어) |
1. Oracle Solaris ZFS 파일 시스템(소개)
3. Oracle Solaris ZFS 저장소 풀 관리
미러링된 ZFS 저장소 풀을 분할하여 새로운 풀 만들기
5. Oracle Solaris ZFS 파일 시스템 관리
6. Oracle Solaris ZFS 스냅샷 및 복제 작업
7. ACL 및 속성을 사용하여 Oracle Solaris ZFS 파일 보호
zpool list 명령은 풀 상태에 관한 정보를 요청할 수 있는 여러 가지 방법을 제공합니다. 일반적으로 사용 가능한 정보는 기본 사용 정보, I/O 통계 및 건전성 상태의 세 범주에 속합니다. 이 절에서는 이러한 세 가지 유형의 저장소 풀 정보를 다룹니다.
zpool list 명령을 사용하여 풀에 대한 기본 정보를 표시할 수 있습니다.
인수 없는 zpool list 명령은 시스템의 모든 풀에 대한 다음 정보를 표시합니다.
# zpool list NAME SIZE ALLOC FREE CAP HEALTH ALTROOT tank 80.0G 22.3G 47.7G 28% ONLINE - dozer 1.2T 384G 816G 32% ONLINE -
이 명령 출력 결과에는 다음 정보가 표시됩니다.
풀의 이름입니다.
모든 최상위 레벨 가상 장치의 합계와 같은 풀의 총 크기입니다.
모든 데이터 세트 및 내부 메타 데이터에 할당된 물리적 공간의 양입니다. 이 양은 파일 시스템 레벨에서 보고되는 디스크 공간의 양과 다를 수 있습니다.
사용 가능한 파일 시스템 공간에 대한 자세한 내용은 ZFS 디스크 공간 계산을 참조하십시오.
풀에서 할당되지 않은 공간의 양입니다.
사용된 디스크 공간의 양으로 총 디스크 공간의 백분율로 표시됩니다.
풀의 현재 건전성 상태입니다.
풀 건전성에 대한 자세한 내용은 ZFS 저장소 풀의 건전성 상태 확인을 참조하십시오.
풀의 대체 루트입니다(존재하는 경우).
대체 루트 풀에 대한 자세한 내용은 ZFS 대체 루트 풀 사용을 참조하십시오.
풀 이름을 지정하면 특정 풀에 대한 통계를 수집할 수도 있습니다. 예:
# zpool list tank NAME SIZE ALLOC FREE CAP HEALTH ALTROOT tank 80.0G 22.3G 47.7G 28% ONLINE -
zpool list 간격 및 수 옵션을 사용하여 기간에 따른 통계를 수집할 수 있습니다. 또한 -T 옵션을 사용하면 시간 기록을 표시할 수 있습니다. 예를 들면 다음과 같습니다.
# zpool list -T d 3 2 Tue Nov 2 10:36:11 MDT 2010 NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT pool 33.8G 83.5K 33.7G 0% 1.00x ONLINE - rpool 33.8G 12.2G 21.5G 36% 1.00x ONLINE - Tue Nov 2 10:36:14 MDT 2010 pool 33.8G 83.5K 33.7G 0% 1.00x ONLINE - rpool 33.8G 12.2G 21.5G 36% 1.00x ONLINE -
zpool status -l 옵션을 사용하여 풀 장치의 물리적 위치 정보를 표시할 수 있습니다. 디스크를 물리적으로 제거하거나 교체해야 하는 경우 물리적 위치 정보를 검토하는 것이 유용합니다.
또한 fmadm add-alias 명령을 사용하여 환경에 있는 디스크의 물리적 위치를 식별하는 데 도움이 되는 디스크 별칭을 포함시킬 수 있습니다. 예를 들면 다음과 같습니다.
# fmadm add-alias SUN-Storage-J4400.1002QCQ015 Lab10Rack5...
# zpool status -l tank pool: tank state: ONLINE scan: scrub repaired 0 in 0h0m with 0 errors on Fri Aug 3 16:00:35 2012 config: NAME STATE READ WRITE CKSUM tank ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_02/disk ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_20/disk ONLINE 0 0 0 mirror-1 ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_22/disk ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_14/disk ONLINE 0 0 0 mirror-2 ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_10/disk ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_16/disk ONLINE 0 0 0 mirror-3 ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_01/disk ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_21/disk ONLINE 0 0 0 mirror-4 ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_23/disk ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_15/disk ONLINE 0 0 0 mirror-5 ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_09/disk ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_04/disk ONLINE 0 0 0 mirror-6 ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_08/disk ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_05/disk ONLINE 0 0 0 mirror-7 ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_07/disk ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_11/disk ONLINE 0 0 0 mirror-8 ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_06/disk ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_19/disk ONLINE 0 0 0 mirror-9 ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_00/disk ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_13/disk ONLINE 0 0 0 mirror-10 ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_03/disk ONLINE 0 0 0 /dev/chassis/Lab10Rack5.../DISK_18/disk ONLINE 0 0 0 spares /dev/chassis/Lab10Rack5.../DISK_17/disk AVAIL /dev/chassis/Lab10Rack5.../DISK_12/disk AVAIL errors: No known data errors
-o 옵션을 사용하여 특정 통계를 요청할 수 있습니다. 이 옵션은 사용자 정의 보고서 또는 관련 정보를 나열할 수 있는 빠른 방법을 제공합니다. 예를 들어, 각 풀의 이름과 크기만 나열하려면 다음 구문을 사용합니다.
# zpool list -o name,size NAME SIZE tank 80.0G dozer 1.2T
열 이름은 모든 저장소 풀 또는 특정 풀에 대한 정보 표시에 나열된 등록 정보와 일치합니다.
zpool list 명령에 대한 기본 출력은 읽기 편의성을 위주로 디자인되었으며 셸 스크립트의 일부로 사용하기는 쉽지 않습니다. 명령의 프로그래밍 사용 목적을 위해서는 -H 옵션을 사용하여 열 머리글을 숨기고 공백 대신 탭으로 필드를 구분할 수 있습니다. 예를 들어, 시스템의 모든 풀 이름 목록을 요청하려면 다음 구문을 사용합니다.
# zpool list -Ho name tank dozer
다음은 다른 예입니다.
# zpool list -H -o name,size tank 80.0G dozer 1.2T
ZFS는 풀 상태 정보를 수정하는 데 성공한 zfs 및 zpool 명령을 자동으로 기록합니다. 이 정보는 zpool history 명령을 사용하여 표시할 수 있습니다.
예를 들어, 다음 구문은 루트 풀에 대한 명령 출력 결과입니다.
# zpool history History for 'rpool': 2012-04-06.14:02:55 zpool create -f rpool c3t0d0s0 2012-04-06.14:02:56 zfs create -p -o mountpoint=/export rpool/export 2012-04-06.14:02:58 zfs set mountpoint=/export rpool/export 2012-04-06.14:02:58 zfs create -p rpool/export/home 2012-04-06.14:03:03 zfs create -p -V 2048m rpool/swap 2012-04-06.14:03:08 zfs set primarycache=metadata rpool/swap 2012-04-06.14:03:09 zfs create -p -V 4094m rpool/dump 2012-04-06.14:26:47 zpool set bootfs=rpool/ROOT/s11u1 rpool 2012-04-06.14:31:15 zfs set primarycache=metadata rpool/swap 2012-04-06.14:31:46 zfs create -o canmount=noauto -o mountpoint=/var/share rpool/VARSHARE 2012-04-06.15:22:33 zfs set primarycache=metadata rpool/swap 2012-04-06.16:42:48 zfs set primarycache=metadata rpool/swap 2012-04-09.16:17:24 zfs snapshot -r rpool/ROOT@yesterday 2012-04-09.16:17:54 zfs snapshot -r rpool/ROOT@now
시스템에서 유사한 출력을 사용하여 오류 조건을 해결하기 위해 실행된 실제 ZFS 명령을 식별할 수 있습니다.
내역 로그의 특징은 다음과 같습니다.
로그를 사용 안함으로 설정할 수 없습니다.
로그는 디스크에 지속적으로 저장됩니다. 즉, 시스템을 재부트해도 로그가 손실되지 않습니다.
링 버퍼로 구현됩니다. 최소 크기는 128KB입니다. 최대 크기는 32MB입니다.
소형 풀의 경우 최대 크기가 풀 크기의 1%로 제한됩니다. 이 크기는 풀 생성 시점에 결정됩니다.
로그는 관리가 필요하지 않습니다. 즉, 로그 크기 조정이나 로그 위치 변경이 불필요합니다.
특정 저장소 풀의 명령 내역을 확인하려면 다음과 유사한 구문을 사용합니다.
# zpool history tank 2012-01-25.16:35:32 zpool create -f tank mirror c3t1d0 c3t2d0 spare c3t3d0 2012-02-17.13:04:10 zfs create tank/test 2012-02-17.13:05:01 zfs snapshot -r tank/test@snap1
-l 옵션을 사용하여 작업이 수행된 사용자 이름, 호스트 이름 및 영역이 포함된 긴 형식을 표시합니다. 예를 들면 다음과 같습니다.
# zpool history -l tank History for 'tank': 2012-01-25.16:35:32 zpool create -f tank mirror c3t1d0 c3t2d0 spare c3t3d0 [user root on tardis:global] 2012-02-17.13:04:10 zfs create tank/test [user root on tardis:global] 2012-02-17.13:05:01 zfs snapshot -r tank/test@snap1 [user root on tardis:global]
-i 옵션을 사용하여 진단용으로 사용할 수 있는 내부 이벤트 정보를 표시합니다. 예를 들면 다음과 같습니다.
# zpool history -i tank History for 'tank': 2012-01-25.16:35:32 zpool create -f tank mirror c3t1d0 c3t2d0 spare c3t3d0 2012-01-25.16:35:32 [internal pool create txg:5] pool spa 33; zfs spa 33; zpl 5; uts tardis 5.11 11.1 sun4v 2012-02-17.13:04:10 zfs create tank/test 2012-02-17.13:04:10 [internal property set txg:66094] $share2=2 dataset = 34 2012-02-17.13:04:31 [internal snapshot txg:66095] dataset = 56 2012-02-17.13:05:01 zfs snapshot -r tank/test@snap1 2012-02-17.13:08:00 [internal user hold txg:66102] <.send-4736-1> temp = 1 ...
툴 또는 특정 가상 장치에 대한 I/O 통계를 요청하려면 zpool iostat 명령을 사용합니다. iostat 명령과 마찬가지로 이 명령은 모든 지정된 간격 동안의 업데이트된 통계는 물론 모든 I/O 작업의 정적 스냅샷을 표시할 수 있습니다. 다음 통계가 보고됩니다.
풀 또는 장치에 현재 저장된 데이터의 양입니다. 이 양은 내부 구현 세부 사항으로 인해 실제 파일 시스템에서 사용할 수 있는 디스크 공간의 양과 약간 차이가 납니다.
풀 공간과 데이터 세트 공간 간의 차이에 대한 자세한 내용은 ZFS 디스크 공간 계산을 참조하십시오.
풀 또는 장치에서 사용할 수 있는 디스크 공간의 양입니다. used 통계와 마찬가지로 이 양은 데이터 세트에서 사용할 수 있는 디스크 공간의 양과 약간 차이가 납니다.
메타 데이터 요청을 포함하여 풀 또는 디스크로 보낸 읽기 I/O 작업의 수입니다.
풀 또는 장치로 보낸 쓰기 I/O 작업의 수입니다.
모든 읽기 작업(메타 데이터 포함)의 대역폭으로 초당 단위로 표시됩니다.
모든 쓰기 작업의 대역폭으로 초당 단위로 표시됩니다.
옵션 없는 zpool iostat 명령은 시스템의 모든 툴에 대한 부트 이후 누적 통계를 표시합니다. 예:
# zpool iostat capacity operations bandwidth pool alloc free read write read write ---------- ----- ----- ----- ----- ----- ----- rpool 6.05G 61.9G 0 0 786 107 tank 31.3G 36.7G 4 1 296K 86.1K ---------- ----- ----- ----- ----- ----- -----
이러한 통계는 부트 이후 누적되므로 풀이 상대적으로 유휴 상태인 경우 대역폭이 낮게 나타날 수 있습니다. 간격을 지정하면 현재 대역폭 사용에 대한 좀더 정확한 보기를 요청할 수 있습니다. 예를 들면 다음과 같습니다.
# zpool iostat tank 2 capacity operations bandwidth pool alloc free read write read write ---------- ----- ----- ----- ----- ----- ----- tank 18.5G 49.5G 0 187 0 23.3M tank 18.5G 49.5G 0 464 0 57.7M tank 18.5G 49.5G 0 457 0 56.6M tank 18.8G 49.2G 0 435 0 51.3M
위 예에서 명령은 Ctrl-C를 입력할 때까지 2초마다 tank 풀에 대한 사용량 통계를 표시합니다. 또는 추가 count 인수를 지정하여 지정된 반복 수가 경과하면 명령이 종료되도록 할 수 있습니다.
예를 들어, zpool iostat 2 3은 2초마다 3회 반복으로 총 6초 동안의 요약을 출력합니다. 단일 풀만 있을 경우에는 통계가 연속 라인에 표시됩니다. 둘 이상의 풀이 존재할 경우에는 추가 대시 라인이 각 반복을 나타내어 시각적 구분을 제공합니다.
풀 전역 I/O 통계와 함께 zpool iostat 명령은 가상 장치에 대한 I/O 통계를 표시할 수 있습니다. 이 명령은 비정상적으로 느린 장치를 식별하거나 ZFS에서 생성된 I/O의 분포를 관찰하는 데 사용할 수 있습니다. 모든 I/O 통계와 함께 전체 가상 장치 레이아웃을 요청하려면 zpool iostat -v 명령을 사용합니다. 예:
# zpool iostat -v capacity operations bandwidth pool alloc free read write read write ---------- ----- ----- ----- ----- ----- ----- rpool 6.05G 61.9G 0 0 785 107 mirror 6.05G 61.9G 0 0 785 107 c1t0d0s0 - - 0 0 578 109 c1t1d0s0 - - 0 0 595 109 ---------- ----- ----- ----- ----- ----- ----- tank 36.5G 31.5G 4 1 295K 146K mirror 36.5G 31.5G 126 45 8.13M 4.01M c1t2d0 - - 0 3 100K 386K c1t3d0 - - 0 3 104K 386K ---------- ----- ----- ----- ----- ----- -----
가상 장치에 대한 I/O 통계를 볼 때 두 가지 중요한 사항이 있습니다.
첫째, 디스크 공간 사용 통계는 최상위 레벨 가상 장치에 대해서만 사용할 수 있습니다. 디스크 공간이 미러 및 RAID-Z 가상 장치에서 할당되는 방식은 구현에 따라 고유하고 단일 숫자로 쉽게 표현되지 않습니다.
둘째, 숫자가 예상한 대로 정확하게 증가하지 않을 수 있습니다. 특히, RAID-Z 및 미러된 장치에 걸친 작업은 정확하게 같지 않습니다. 이 차이는 풀이 생성된 직후 많은 양의 I/O가 풀 생성의 일부로 디스크에 직접 보내지고 미러 레벨에서 계산되지 않을 때 쉽게 확인할 수 있습니다. 시간이 지남에 따라 이러한 숫자는 점차 같아집니다. 하지만 손상되거나 응답하지 않거나 오프라인 상태의 장치도 이 대칭에 영향을 줄 수 있습니다.
가상 장치 통계를 조사할 때 동일한 옵션 세트(간격 및 수)를 사용할 수 있습니다.
풀의 가상 장치에 대한 물리적 위치 정보를 표시할 수도 있습니다. 예를 들면 다음과 같습니다.
# zpool iostat -lv capacity operations bandwidth pool alloc free read write read write ---------- ----- ----- ----- ----- ----- ----- export 2.39T 2.14T 13 27 42.7K 300K mirror 490G 438G 2 5 8.53K 60.3K /dev/chassis/lab10rack15/SCSI_Device__2/disk - - 1 0 4.47K 60.3K /dev/chassis/lab10rack15/SCSI_Device__3/disk - - 1 0 4.45K 60.3K mirror 490G 438G 2 5 8.62K 59.9K /dev/chassis/lab10rack15/SCSI_Device__4/disk - - 1 0 4.52K 59.9K /dev/chassis/lab10rack15/SCSI_Device__5/disk - - 1 0 4.48K 59.9K mirror 490G 438G 2 5 8.60K 60.2K /dev/chassis/lab10rack15/SCSI_Device__6/disk - - 1 0 4.50K 60.2K /dev/chassis/lab10rack15/SCSI_Device__7/disk - - 1 0 4.49K 60.2K mirror 490G 438G 2 5 8.47K 60.1K /dev/chassis/lab10rack15/SCSI_Device__8/disk - - 1 0 4.42K 60.1K /dev/chassis/lab10rack15/SCSI_Device__9/disk - - 1 0 4.43K 60.1K . . .
ZFS는 풀 및 장치 건전성을 조사하는 통합된 방법을 제공합니다. 풀의 건전성은 모든 장치의 상태에서 결정됩니다. 이 상태 정보는 zpool status 명령을 사용하여 표시됩니다. 또한 잠재적인 풀 및 장치 실패가 fmd에 의해 보고되고, 시스템 콘솔에 표시되며, /var/adm/messages 파일에 기록됩니다.
이 절에서는 풀 및 장치 건전성을 확인하는 방법을 설명합니다. 이 장에서는 건전하지 않은 풀에서 복구하는 방법을 다루지 않습니다. 문제 해결 및 데이터 복구에 대한 자세한 내용은 10 장Oracle Solaris ZFS 문제 해결 및 풀 복구를 참조하십시오.
풀의 건전성 상태는 다음 4개 상태 중 하나로 설명됩니다.
결함이 있는 장치가 한 개 이상이지만 중복 구성으로 인해 데이터는 계속 사용할 수 있는 풀입니다.
모든 장치가 정상적으로 작동 중인 풀입니다.
장치 연결 복원을 기다리는 중인 풀입니다. 풀은 장치 문제가 해결될 때까지 SUSPENDED 상태를 유지합니다.
메타 데이터가 손상되었거나 하나 이상의 장치가 사용할 수 없는 상태이고 작동을 계속하기 위해 필요한 복제본이 부족한 상태의 풀입니다.
각 풀 장치는 다음 상태 중 하나에 속할 수 있습니다.
가상 장치에서 실패가 발생하지만 여전히 작동 가능합니다. 이 상태는 미러 또는 RAID-Z 장치가 하나 이상의 구성 장치를 잃을 때 가장 일반적으로 나타납니다. 다른 장치에서 다음에 발생하는 결함을 복구할 수 없는 경우 풀의 내결함성이 침해될 수 있습니다.
장치가 관리자에 의해 명시적으로 오프라인으로 전환되었습니다.
장치 또는 가상 장치가 정상적으로 작동하는 상태입니다. 일부 일시적인 오류가 계속 발생할 수 있지만 장치가 정상적으로 작동하는 중입니다.
시스템이 실행되는 동안 장치가 물리적으로 제거되었습니다. 장치 제거 감지는 하드웨어에 따라 다르며 일부 플랫폼에서 지원되지 않을 수 있습니다.
장치 또는 가상 장치를 열 수 없습니다. 경우에 따라 UNAVAIL 장치가 있는 풀이 DEGRADED 모드로 나타날 수 있습니다. 최상위 레벨 가상 장치가 UNAVAIL 상태이면 풀에서 아무것도 액세스할 수 없습니다.
풀의 건전성은 모든 최상위 레벨 가상 장치의 건전성에서 결정됩니다. 모든 가상 장치가 ONLINE이면 풀도 ONLINE입니다. 가상 장치 중 하나라도 DEGRADED 또는 UNAVAIL이면 풀도 DEGRADED입니다. 최상위 가상 장치가 UNAVAIL 또는 OFFLINE 상태이면 이 풀도 UNAVAIL 또는 SUSPENDED 상태입니다. UNAVAIL 또는 SUSPENDED 상태의 풀은 완전히 액세스할 수 없습니다. 필요한 장치가 연결되거나 복구될 때까지 데이터를 복구할 수 없습니다. DEGRADED 상태의 풀은 계속해서 실행되지만, 풀이 온라인일 때만큼 동일한 레벨의 데이터 중복성 또는 데이터 처리량을 기대할 수 없습니다.
zpool status 명령은 리실버링 및 스크러빙 작업에 대한 세부 정보도 제공합니다.
리실버링 진행 중 보고입니다. 예를 들면 다음과 같습니다.
scan: resilver in progress since Wed Jun 20 14:19:38 2012 7.43G scanned out of 71.8G at 36.4M/s, 0h30m to go 7.43G resilvered, 10.35% done
스크러빙 진행 중 보고입니다. 예를 들면 다음과 같습니다.
scan: scrub in progress since Wed Jun 20 14:56:52 2012 529M scanned out of 71.8G at 48.1M/s, 0h25m to go 0 repaired, 0.72% done
리실버링 완료 메시지입니다. 예를 들면 다음과 같습니다.
scan: resilvered 71.8G in 0h14m with 0 errors on Wed Jun 20 14:33:42 2012
스크러빙 완료 메시지입니다. 예를 들면 다음과 같습니다.
scan: scrub repaired 0 in 0h11m with 0 errors on Wed Jun 20 15:08:23 2012
진행 중인 스크러빙 취소 메시지입니다. 예를 들면 다음과 같습니다.
scan: scrub canceled on Wed Jun 20 16:04:40 2012
스크러빙 및 리실버링 완료 메시지는 시스템 재부트 시에도 지속됩니다.
다음과 같이 zpool status 명령을 사용하여 풀 건전성 상태를 빠르게 검토할 수 있습니다.
# zpool status -x all pools are healthy
명령 구문에 풀 이름을 지정하면 특정 풀을 조사할 수 있습니다. ONLINE 상태에 있지 않은 모든 풀은 다음 절에 설명된 대로 잠재적인 문제를 조사해야 합니다.
- v 옵션을 사용하여 좀더 자세한 건전성 요약 상태를 요청할 수 있습니다. 예를 들면 다음과 같습니다.
# zpool status -v pond pool: pond state: DEGRADED status: One or more devices are unavailable in response to persistent errors. Sufficient replicas exist for the pool to continue functioning in a degraded state. action: Determine if the device needs to be replaced, and clear the errors using 'zpool clear' or 'fmadm repaired', or replace the device with 'zpool replace'. scan: scrub repaired 0 in 0h0m with 0 errors on Wed Jun 20 15:38:08 2012 config: NAME STATE READ WRITE CKSUM pond DEGRADED 0 0 0 mirror-0 DEGRADED 0 0 0 c0t5000C500335F95E3d0 ONLINE 0 0 0 c0t5000C500335F907Fd0 UNAVAIL 0 0 0 mirror-1 ONLINE 0 0 0 c0t5000C500335BD117d0 ONLINE 0 0 0 c0t5000C500335DC60Fd0 ONLINE 0 0 0 device details: c0t5000C500335F907Fd0 UNAVAIL cannot open status: ZFS detected errors on this device. The device was missing. see: http://support.oracle.com/msg/ZFS-8000-LR for recovery errors: No known data errors
이 출력 결과는 풀이 현재 상태인 이유에 대해 자세히 설명합니다. 여기에는 이해하기 쉬운 설명과 추가 정보를 얻을 수 있는 기술 자료 문서 링크가 포함됩니다. 기술 자료 문서는 현재 문제로부터 복구할 수 있는 가장 좋은 방법에 대한 최신 정보를 제공합니다. 자세한 구성 정보를 사용하면 어떤 장치가 손상되고 어떻게 풀을 복구할 수 있는지 확인할 수 있습니다.
위 예에서 UNAVAIL 장치는 교체해야 합니다. 장치가 교체된 후 필요에 따라 zpool online 명령을 사용하여 장치를 온라인으로 전환합니다. 예를 들면 다음과 같습니다.
# zpool online pond c0t5000C500335F907Fd0 warning: device 'c0t5000C500335DC60Fd0' onlined, but remains in degraded state # zpool status -x all pools are healthy
위 출력 결과에서는 리실버링이 완료될 때까지 장치가 성능 저하 상태로 유지됨을 알 수 있습니다.
autoreplace 등록 정보가 on인 경우에는 교체된 장치를 온라인으로 전환하지 않아도 될 수 있습니다.
풀에 오프라인 장치가 있을 경우 명령 출력 결과는 문제가 있는 풀을 나타냅니다. 예를 들면 다음과 같습니다.
# zpool status -x pool: pond state: DEGRADED status: One or more devices has been taken offline by the administrator. Sufficient replicas exist for the pool to continue functioning in a degraded state. action: Online the device using 'zpool online' or replace the device with 'zpool replace'. config: NAME STATE READ WRITE CKSUM pond DEGRADED 0 0 0 mirror-0 DEGRADED 0 0 0 c0t5000C500335F95E3d0 ONLINE 0 0 0 c0t5000C500335F907Fd0 OFFLINE 0 0 0 mirror-1 ONLINE 0 0 0 c0t5000C500335BD117d0 ONLINE 0 0 0 c0t5000C500335DC60Fd0 ONLINE 0 0 0 errors: No known data errors
READ 및 WRITE 열은 장치에서 발생한 I/O 오류 수를 제공하고, CKSUM 열은 장치에서 발생한 수정할 수 없는 체크섬 오류 수를 제공합니다. 두 오류 수는 모두 잠재적인 장치 실패를 나타내며, 일부는 수정 조치가 필요합니다. 최상위 레벨 가상 장치에 대해 0이 아닌 오류가 보고될 경우 데이터 중 일부에 액세스하지 못할 수 있습니다.
errors: 필드는 알려진 데이터 오류를 나타냅니다.
위의 예에 나온 출력 결과에서 오프라인 장치는 데이터 오류를 유발하지 않습니다.
UNAVAIL 상태의 풀 및 데이터 진단과 복구에 대한 자세한 내용은 10 장Oracle Solaris ZFS 문제 해결 및 풀 복구를 참조하십시오.
zpool status 간격 및 수 옵션을 사용하여 기간에 따른 통계를 수집할 수 있습니다. 또한 -T 옵션을 사용하면 시간 기록을 표시할 수 있습니다. 예를 들면 다음과 같습니다.
# zpool status -T d 3 2 Wed Jun 20 16:10:09 MDT 2012 pool: pond state: ONLINE scan: resilvered 9.50K in 0h0m with 0 errors on Wed Jun 20 16:07:34 2012 config: NAME STATE READ WRITE CKSUM pond ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c0t5000C500335F95E3d0 ONLINE 0 0 0 c0t5000C500335F907Fd0 ONLINE 0 0 0 mirror-1 ONLINE 0 0 0 c0t5000C500335BD117d0 ONLINE 0 0 0 c0t5000C500335DC60Fd0 ONLINE 0 0 0 errors: No known data errors pool: rpool state: ONLINE scan: scrub repaired 0 in 0h11m with 0 errors on Wed Jun 20 15:08:23 2012 config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c0t5000C500335BA8C3d0s0 ONLINE 0 0 0 c0t5000C500335FC3E7d0s0 ONLINE 0 0 0 errors: No known data errors Wed Jun 20 16:10:12 MDT 2012 pool: pond state: ONLINE scan: resilvered 9.50K in 0h0m with 0 errors on Wed Jun 20 16:07:34 2012 config: NAME STATE READ WRITE CKSUM pond ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c0t5000C500335F95E3d0 ONLINE 0 0 0 c0t5000C500335F907Fd0 ONLINE 0 0 0 mirror-1 ONLINE 0 0 0 c0t5000C500335BD117d0 ONLINE 0 0 0 c0t5000C500335DC60Fd0 ONLINE 0 0 0 errors: No known data errors pool: rpool state: ONLINE scan: scrub repaired 0 in 0h11m with 0 errors on Wed Jun 20 15:08:23 2012 config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c0t5000C500335BA8C3d0s0 ONLINE 0 0 0 c0t5000C500335FC3E7d0s0 ONLINE 0 0 0 errors: No known data errors