JavaScript is required to for searching.
탐색 링크 건너뛰기
인쇄 보기 종료
Oracle Solaris 11.1 관리: ZFS 파일 시스템     Oracle Solaris 11.1 Information Library (한국어)
search filter icon
search icon

문서 정보

머리말

1.  Oracle Solaris ZFS 파일 시스템(소개)

2.  Oracle Solaris ZFS 시작하기

3.  Oracle Solaris ZFS 저장소 풀 관리

ZFS 저장소 풀의 구성 요소

ZFS 저장소 풀의 디스크 사용

ZFS 저장소 풀에서 슬라이스 사용

ZFS 저장소 풀에서 파일 사용

ZFS 저장소 풀 고려 사항

ZFS 저장소 풀의 복제 기능

미러링된 저장소 풀 구성

RAID-Z 저장소 풀 구성

ZFS 하이브리드 저장소 풀

중복 구성에서 데이터 자가 치료

저장소 풀의 동적 스트라이프

ZFS 저장소 풀 만들기 및 삭제

ZFS 저장소 풀 만들기

기본 저장소 풀 만들기

미러된 저장소 풀 만들기

ZFS 루트 풀 만들기

RAID-Z 저장소 풀 만들기

로그 장치를 사용하여 ZFS 저장소 풀 만들기

캐시 장치를 사용하여 ZFS 저장소 풀 만들기

저장소 풀을 만들 때 주의 사항

저장소 풀 가상 장치 정보 표시

ZFS 저장소 풀 만들기 오류 처리

사용 중인 장치 감지

일치하지 않는 복제 레벨

저장소 풀 만들기의 Dry Run 수행

저장소 풀에 대한 기본 마운트 지점

ZFS 저장소 풀 삭제

사용할 수 없는 장치가 있는 풀 삭제

ZFS 저장소 풀의 장치 관리

저장소 풀에 장치 추가

저장소 풀에서 장치 연결 및 분리

미러링된 ZFS 저장소 풀을 분할하여 새로운 풀 만들기

저장소 풀에서 장치 온라인 및 오프라인 전환

장치 오프라인 전환

온라인으로 장치 설정

저장소 풀 장치 오류 지우기

저장소 풀의 장치 교체

저장소 풀에서 핫 스패어 지정

저장소 풀에서 핫 스패어 활성화 및 비활성화

ZFS 저장소 풀 등록 정보 관리

ZFS 저장소 풀 상태 질의

ZFS 저장소 풀에 대한 정보 표시

모든 저장소 풀 또는 특정 풀에 대한 정보 표시

물리적 위치로 풀 장치 표시

특정 저장소 풀 통계 표시

ZFS 저장소 풀 출력 결과 스크립팅

ZFS 저장소 풀 명령 내역 표시

ZFS 저장소 풀에 대한 I/O 통계 보기

풀 전역 I/O 통계 나열

가상 장치 I/O 통계 사용

ZFS 저장소 풀의 건전성 상태 확인

기본 저장소 풀 건전성 상태

자세한 건전성 상태

ZFS 저장소 풀 상태 정보 수집

ZFS 저장소 풀 마이그레이션

ZFS 저장소 풀 마이그레이션 준비

ZFS 저장소 풀 내보내기

가져올 수 있는 저장소 풀 결정

대체 디렉토리에서 ZFS 저장소 풀 가져오기

ZFS 저장소 풀 가져오기

누락된 로그 장치가 있는 풀 가져오기

읽기 전용 모드로 풀 가져오기

특정 장치 경로로 풀 가져오기

삭제된 ZFS 저장소 풀 복구

ZFS 저장소 풀 업그레이드

4.  ZFS 루트 풀 구성 요소 관리

5.  Oracle Solaris ZFS 파일 시스템 관리

6.  Oracle Solaris ZFS 스냅샷 및 복제 작업

7.  ACL 및 속성을 사용하여 Oracle Solaris ZFS 파일 보호

8.  Oracle Solaris ZFS 위임 관리

9.  Oracle Solaris ZFS 고급 주제

10.  Oracle Solaris ZFS 문제 해결 및 풀 복구

11.  스냅샷 아카이브 및 루트 풀 복구

12.  Oracle Solaris ZFS 권장 방법

A.  Oracle Solaris ZFS 버전 설명

색인

ZFS 저장소 풀 상태 질의

zpool list 명령은 풀 상태에 관한 정보를 요청할 수 있는 여러 가지 방법을 제공합니다. 일반적으로 사용 가능한 정보는 기본 사용 정보, I/O 통계 및 건전성 상태의 세 범주에 속합니다. 이 절에서는 이러한 세 가지 유형의 저장소 풀 정보를 다룹니다.

ZFS 저장소 풀에 대한 정보 표시

zpool list 명령을 사용하여 풀에 대한 기본 정보를 표시할 수 있습니다.

모든 저장소 풀 또는 특정 풀에 대한 정보 표시

인수 없는 zpool list 명령은 시스템의 모든 풀에 대한 다음 정보를 표시합니다.

# zpool list
NAME                    SIZE    ALLOC   FREE    CAP  HEALTH     ALTROOT
tank                   80.0G   22.3G   47.7G    28%  ONLINE     -
dozer                   1.2T    384G    816G    32%  ONLINE     -

이 명령 출력 결과에는 다음 정보가 표시됩니다.

NAME

풀의 이름입니다.

SIZE

모든 최상위 레벨 가상 장치의 합계와 같은 풀의 총 크기입니다.

ALLOC

모든 데이터 세트 및 내부 메타 데이터에 할당된 물리적 공간의 양입니다. 이 양은 파일 시스템 레벨에서 보고되는 디스크 공간의 양과 다를 수 있습니다.

사용 가능한 파일 시스템 공간에 대한 자세한 내용은 ZFS 디스크 공간 계산을 참조하십시오.

FREE

풀에서 할당되지 않은 공간의 양입니다.

CAP (CAPACITY)

사용된 디스크 공간의 양으로 총 디스크 공간의 백분율로 표시됩니다.

HEALTH

풀의 현재 건전성 상태입니다.

풀 건전성에 대한 자세한 내용은 ZFS 저장소 풀의 건전성 상태 확인을 참조하십시오.

ALTROOT

풀의 대체 루트입니다(존재하는 경우).

대체 루트 풀에 대한 자세한 내용은 ZFS 대체 루트 풀 사용을 참조하십시오.

풀 이름을 지정하면 특정 풀에 대한 통계를 수집할 수도 있습니다. 예:

# zpool list tank
NAME                    SIZE    ALLOC   FREE    CAP   HEALTH     ALTROOT
tank                   80.0G    22.3G   47.7G    28%  ONLINE     -

zpool list 간격 및 수 옵션을 사용하여 기간에 따른 통계를 수집할 수 있습니다. 또한 -T 옵션을 사용하면 시간 기록을 표시할 수 있습니다. 예를 들면 다음과 같습니다.

# zpool list -T d 3 2
Tue Nov  2 10:36:11 MDT 2010
NAME    SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
pool   33.8G  83.5K  33.7G     0%  1.00x  ONLINE  -
rpool  33.8G  12.2G  21.5G    36%  1.00x  ONLINE  -
Tue Nov  2 10:36:14 MDT 2010
pool   33.8G  83.5K  33.7G     0%  1.00x  ONLINE  -
rpool  33.8G  12.2G  21.5G    36%  1.00x  ONLINE  -

물리적 위치로 풀 장치 표시

zpool status -l 옵션을 사용하여 풀 장치의 물리적 위치 정보를 표시할 수 있습니다. 디스크를 물리적으로 제거하거나 교체해야 하는 경우 물리적 위치 정보를 검토하는 것이 유용합니다.

또한 fmadm add-alias 명령을 사용하여 환경에 있는 디스크의 물리적 위치를 식별하는 데 도움이 되는 디스크 별칭을 포함시킬 수 있습니다. 예를 들면 다음과 같습니다.

# fmadm add-alias SUN-Storage-J4400.1002QCQ015 Lab10Rack5...
# zpool status -l tank
  pool: tank
 state: ONLINE
  scan: scrub repaired 0 in 0h0m with 0 errors on Fri Aug  3 16:00:35 2012
config:

        NAME                                         STATE     READ WRITE CKSUM
        tank                                         ONLINE       0     0     0
          mirror-0                                   ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_02/disk  ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_20/disk  ONLINE       0     0     0
          mirror-1                                   ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_22/disk  ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_14/disk  ONLINE       0     0     0
          mirror-2                                   ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_10/disk  ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_16/disk  ONLINE       0     0     0
          mirror-3                                   ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_01/disk  ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_21/disk  ONLINE       0     0     0
          mirror-4                                   ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_23/disk  ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_15/disk  ONLINE       0     0     0
          mirror-5                                   ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_09/disk  ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_04/disk  ONLINE       0     0     0
          mirror-6                                   ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_08/disk  ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_05/disk  ONLINE       0     0     0
          mirror-7                                   ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_07/disk  ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_11/disk  ONLINE       0     0     0
          mirror-8                                   ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_06/disk  ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_19/disk  ONLINE       0     0     0
          mirror-9                                   ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_00/disk  ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_13/disk  ONLINE       0     0     0
          mirror-10                                  ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_03/disk  ONLINE       0     0     0
            /dev/chassis/Lab10Rack5.../DISK_18/disk  ONLINE       0     0     0
        spares
          /dev/chassis/Lab10Rack5.../DISK_17/disk    AVAIL   
          /dev/chassis/Lab10Rack5.../DISK_12/disk    AVAIL   

errors: No known data errors

특정 저장소 풀 통계 표시

-o 옵션을 사용하여 특정 통계를 요청할 수 있습니다. 이 옵션은 사용자 정의 보고서 또는 관련 정보를 나열할 수 있는 빠른 방법을 제공합니다. 예를 들어, 각 풀의 이름과 크기만 나열하려면 다음 구문을 사용합니다.

# zpool list -o name,size
NAME                    SIZE
tank                   80.0G
dozer                   1.2T

열 이름은 모든 저장소 풀 또는 특정 풀에 대한 정보 표시에 나열된 등록 정보와 일치합니다.

ZFS 저장소 풀 출력 결과 스크립팅

zpool list 명령에 대한 기본 출력은 읽기 편의성을 위주로 디자인되었으며 셸 스크립트의 일부로 사용하기는 쉽지 않습니다. 명령의 프로그래밍 사용 목적을 위해서는 -H 옵션을 사용하여 열 머리글을 숨기고 공백 대신 탭으로 필드를 구분할 수 있습니다. 예를 들어, 시스템의 모든 풀 이름 목록을 요청하려면 다음 구문을 사용합니다.

# zpool list -Ho name
tank
dozer

다음은 다른 예입니다.

# zpool list -H -o name,size
tank   80.0G
dozer  1.2T

ZFS 저장소 풀 명령 내역 표시

ZFS는 풀 상태 정보를 수정하는 데 성공한 zfszpool 명령을 자동으로 기록합니다. 이 정보는 zpool history 명령을 사용하여 표시할 수 있습니다.

예를 들어, 다음 구문은 루트 풀에 대한 명령 출력 결과입니다.

# zpool history
History for 'rpool':
2012-04-06.14:02:55 zpool create -f rpool c3t0d0s0
2012-04-06.14:02:56 zfs create -p -o mountpoint=/export rpool/export
2012-04-06.14:02:58 zfs set mountpoint=/export rpool/export
2012-04-06.14:02:58 zfs create -p rpool/export/home
2012-04-06.14:03:03 zfs create -p -V 2048m rpool/swap
2012-04-06.14:03:08 zfs set primarycache=metadata rpool/swap
2012-04-06.14:03:09 zfs create -p -V 4094m rpool/dump
2012-04-06.14:26:47 zpool set bootfs=rpool/ROOT/s11u1 rpool
2012-04-06.14:31:15 zfs set primarycache=metadata rpool/swap
2012-04-06.14:31:46 zfs create -o canmount=noauto -o mountpoint=/var/share rpool/VARSHARE
2012-04-06.15:22:33 zfs set primarycache=metadata rpool/swap
2012-04-06.16:42:48 zfs set primarycache=metadata rpool/swap
2012-04-09.16:17:24 zfs snapshot -r rpool/ROOT@yesterday
2012-04-09.16:17:54 zfs snapshot -r rpool/ROOT@now

시스템에서 유사한 출력을 사용하여 오류 조건을 해결하기 위해 실행된 실제 ZFS 명령을 식별할 수 있습니다.

내역 로그의 특징은 다음과 같습니다.

특정 저장소 풀의 명령 내역을 확인하려면 다음과 유사한 구문을 사용합니다.

# zpool history tank
2012-01-25.16:35:32 zpool create -f tank mirror c3t1d0 c3t2d0 spare c3t3d0
2012-02-17.13:04:10 zfs create tank/test
2012-02-17.13:05:01 zfs snapshot -r tank/test@snap1

-l 옵션을 사용하여 작업이 수행된 사용자 이름, 호스트 이름 및 영역이 포함된 긴 형식을 표시합니다. 예를 들면 다음과 같습니다.

# zpool history -l tank
History for 'tank':
2012-01-25.16:35:32 zpool create -f tank mirror c3t1d0 c3t2d0 spare c3t3d0 
[user root on tardis:global]
2012-02-17.13:04:10 zfs create tank/test [user root on tardis:global]
2012-02-17.13:05:01 zfs snapshot -r tank/test@snap1 [user root on tardis:global]

-i 옵션을 사용하여 진단용으로 사용할 수 있는 내부 이벤트 정보를 표시합니다. 예를 들면 다음과 같습니다.

# zpool history -i tank
History for 'tank':
2012-01-25.16:35:32 zpool create -f tank mirror c3t1d0 c3t2d0 spare c3t3d0
2012-01-25.16:35:32 [internal pool create txg:5] pool spa 33; zfs spa 33; zpl 5;
uts tardis 5.11 11.1 sun4v
2012-02-17.13:04:10 zfs create tank/test
2012-02-17.13:04:10 [internal property set txg:66094] $share2=2 dataset = 34
2012-02-17.13:04:31 [internal snapshot txg:66095] dataset = 56
2012-02-17.13:05:01 zfs snapshot -r tank/test@snap1
2012-02-17.13:08:00 [internal user hold txg:66102] <.send-4736-1> temp = 1 ...

ZFS 저장소 풀에 대한 I/O 통계 보기

툴 또는 특정 가상 장치에 대한 I/O 통계를 요청하려면 zpool iostat 명령을 사용합니다. iostat 명령과 마찬가지로 이 명령은 모든 지정된 간격 동안의 업데이트된 통계는 물론 모든 I/O 작업의 정적 스냅샷을 표시할 수 있습니다. 다음 통계가 보고됩니다.

alloc capacity

풀 또는 장치에 현재 저장된 데이터의 양입니다. 이 양은 내부 구현 세부 사항으로 인해 실제 파일 시스템에서 사용할 수 있는 디스크 공간의 양과 약간 차이가 납니다.

풀 공간과 데이터 세트 공간 간의 차이에 대한 자세한 내용은 ZFS 디스크 공간 계산을 참조하십시오.

free capacity

풀 또는 장치에서 사용할 수 있는 디스크 공간의 양입니다. used 통계와 마찬가지로 이 양은 데이터 세트에서 사용할 수 있는 디스크 공간의 양과 약간 차이가 납니다.

read operations

메타 데이터 요청을 포함하여 풀 또는 디스크로 보낸 읽기 I/O 작업의 수입니다.

write operations

풀 또는 장치로 보낸 쓰기 I/O 작업의 수입니다.

read bandwidth

모든 읽기 작업(메타 데이터 포함)의 대역폭으로 초당 단위로 표시됩니다.

write bandwidth

모든 쓰기 작업의 대역폭으로 초당 단위로 표시됩니다.

풀 전역 I/O 통계 나열

옵션 없는 zpool iostat 명령은 시스템의 모든 툴에 대한 부트 이후 누적 통계를 표시합니다. 예:

# zpool iostat
               capacity     operations    bandwidth
pool        alloc   free   read  write   read  write
----------  -----  -----  -----  -----  -----  -----
rpool       6.05G  61.9G      0      0    786    107
tank        31.3G  36.7G      4      1   296K  86.1K
----------  -----  -----  -----  -----  -----  -----

이러한 통계는 부트 이후 누적되므로 풀이 상대적으로 유휴 상태인 경우 대역폭이 낮게 나타날 수 있습니다. 간격을 지정하면 현재 대역폭 사용에 대한 좀더 정확한 보기를 요청할 수 있습니다. 예를 들면 다음과 같습니다.

# zpool iostat tank 2
               capacity     operations    bandwidth
pool        alloc   free   read  write   read  write
----------  -----  -----  -----  -----  -----  -----
tank        18.5G  49.5G      0    187      0  23.3M
tank        18.5G  49.5G      0    464      0  57.7M
tank        18.5G  49.5G      0    457      0  56.6M
tank        18.8G  49.2G      0    435      0  51.3M

위 예에서 명령은 Ctrl-C를 입력할 때까지 2초마다 tank 풀에 대한 사용량 통계를 표시합니다. 또는 추가 count 인수를 지정하여 지정된 반복 수가 경과하면 명령이 종료되도록 할 수 있습니다.

예를 들어, zpool iostat 2 3은 2초마다 3회 반복으로 총 6초 동안의 요약을 출력합니다. 단일 풀만 있을 경우에는 통계가 연속 라인에 표시됩니다. 둘 이상의 풀이 존재할 경우에는 추가 대시 라인이 각 반복을 나타내어 시각적 구분을 제공합니다.

가상 장치 I/O 통계 사용

풀 전역 I/O 통계와 함께 zpool iostat 명령은 가상 장치에 대한 I/O 통계를 표시할 수 있습니다. 이 명령은 비정상적으로 느린 장치를 식별하거나 ZFS에서 생성된 I/O의 분포를 관찰하는 데 사용할 수 있습니다. 모든 I/O 통계와 함께 전체 가상 장치 레이아웃을 요청하려면 zpool iostat -v 명령을 사용합니다. 예:

# zpool iostat -v
               capacity     operations    bandwidth
pool        alloc   free   read  write   read  write
----------  -----  -----  -----  -----  -----  -----
rpool       6.05G  61.9G      0      0    785    107
  mirror    6.05G  61.9G      0      0    785    107
    c1t0d0s0    -      -      0      0    578    109
    c1t1d0s0    -      -      0      0    595    109
----------  -----  -----  -----  -----  -----  -----
tank        36.5G  31.5G      4      1   295K   146K
  mirror    36.5G  31.5G    126     45  8.13M  4.01M
    c1t2d0      -      -      0      3   100K   386K
    c1t3d0      -      -      0      3   104K   386K
----------  -----  -----  -----  -----  -----  -----

가상 장치에 대한 I/O 통계를 볼 때 두 가지 중요한 사항이 있습니다.

가상 장치 통계를 조사할 때 동일한 옵션 세트(간격 및 수)를 사용할 수 있습니다.

풀의 가상 장치에 대한 물리적 위치 정보를 표시할 수도 있습니다. 예를 들면 다음과 같습니다.

# zpool iostat -lv
               capacity     operations    bandwidth
pool        alloc   free   read  write   read  write
----------  -----  -----  -----  -----  -----  -----
export      2.39T  2.14T     13     27  42.7K   300K
  mirror     490G   438G      2      5  8.53K  60.3K
    /dev/chassis/lab10rack15/SCSI_Device__2/disk      -      -      1      0  4.47K  60.3K
    /dev/chassis/lab10rack15/SCSI_Device__3/disk      -      -      1      0  4.45K  60.3K
  mirror     490G   438G      2      5  8.62K  59.9K
    /dev/chassis/lab10rack15/SCSI_Device__4/disk      -      -      1      0  4.52K  59.9K
    /dev/chassis/lab10rack15/SCSI_Device__5/disk      -      -      1      0  4.48K  59.9K
  mirror     490G   438G      2      5  8.60K  60.2K
    /dev/chassis/lab10rack15/SCSI_Device__6/disk      -      -      1      0  4.50K  60.2K
    /dev/chassis/lab10rack15/SCSI_Device__7/disk      -      -      1      0  4.49K  60.2K
  mirror     490G   438G      2      5  8.47K  60.1K
    /dev/chassis/lab10rack15/SCSI_Device__8/disk      -      -      1      0  4.42K  60.1K
    /dev/chassis/lab10rack15/SCSI_Device__9/disk      -      -      1      0  4.43K  60.1K
.
.
.

ZFS 저장소 풀의 건전성 상태 확인

ZFS는 풀 및 장치 건전성을 조사하는 통합된 방법을 제공합니다. 풀의 건전성은 모든 장치의 상태에서 결정됩니다. 이 상태 정보는 zpool status 명령을 사용하여 표시됩니다. 또한 잠재적인 풀 및 장치 실패가 fmd에 의해 보고되고, 시스템 콘솔에 표시되며, /var/adm/messages 파일에 기록됩니다.

이 절에서는 풀 및 장치 건전성을 확인하는 방법을 설명합니다. 이 장에서는 건전하지 않은 풀에서 복구하는 방법을 다루지 않습니다. 문제 해결 및 데이터 복구에 대한 자세한 내용은 10 장Oracle Solaris ZFS 문제 해결 및 풀 복구를 참조하십시오.

풀의 건전성 상태는 다음 4개 상태 중 하나로 설명됩니다.

DEGRADED

결함이 있는 장치가 한 개 이상이지만 중복 구성으로 인해 데이터는 계속 사용할 수 있는 풀입니다.

ONLINE

모든 장치가 정상적으로 작동 중인 풀입니다.

SUSPENDED

장치 연결 복원을 기다리는 중인 풀입니다. 풀은 장치 문제가 해결될 때까지 SUSPENDED 상태를 유지합니다.

UNAVAIL

메타 데이터가 손상되었거나 하나 이상의 장치가 사용할 수 없는 상태이고 작동을 계속하기 위해 필요한 복제본이 부족한 상태의 풀입니다.

각 풀 장치는 다음 상태 중 하나에 속할 수 있습니다.

DEGRADED

가상 장치에서 실패가 발생하지만 여전히 작동 가능합니다. 이 상태는 미러 또는 RAID-Z 장치가 하나 이상의 구성 장치를 잃을 때 가장 일반적으로 나타납니다. 다른 장치에서 다음에 발생하는 결함을 복구할 수 없는 경우 풀의 내결함성이 침해될 수 있습니다.

OFFLINE

장치가 관리자에 의해 명시적으로 오프라인으로 전환되었습니다.

ONLINE

장치 또는 가상 장치가 정상적으로 작동하는 상태입니다. 일부 일시적인 오류가 계속 발생할 수 있지만 장치가 정상적으로 작동하는 중입니다.

REMOVED

시스템이 실행되는 동안 장치가 물리적으로 제거되었습니다. 장치 제거 감지는 하드웨어에 따라 다르며 일부 플랫폼에서 지원되지 않을 수 있습니다.

UNAVAIL

장치 또는 가상 장치를 열 수 없습니다. 경우에 따라 UNAVAIL 장치가 있는 풀이 DEGRADED 모드로 나타날 수 있습니다. 최상위 레벨 가상 장치가 UNAVAIL 상태이면 풀에서 아무것도 액세스할 수 없습니다.

풀의 건전성은 모든 최상위 레벨 가상 장치의 건전성에서 결정됩니다. 모든 가상 장치가 ONLINE이면 풀도 ONLINE입니다. 가상 장치 중 하나라도 DEGRADED 또는 UNAVAIL이면 풀도 DEGRADED입니다. 최상위 가상 장치가 UNAVAIL 또는 OFFLINE 상태이면 이 풀도 UNAVAIL 또는 SUSPENDED 상태입니다. UNAVAIL 또는 SUSPENDED 상태의 풀은 완전히 액세스할 수 없습니다. 필요한 장치가 연결되거나 복구될 때까지 데이터를 복구할 수 없습니다. DEGRADED 상태의 풀은 계속해서 실행되지만, 풀이 온라인일 때만큼 동일한 레벨의 데이터 중복성 또는 데이터 처리량을 기대할 수 없습니다.

zpool status 명령은 리실버링 및 스크러빙 작업에 대한 세부 정보도 제공합니다.

기본 저장소 풀 건전성 상태

다음과 같이 zpool status 명령을 사용하여 풀 건전성 상태를 빠르게 검토할 수 있습니다.

# zpool status -x
all pools are healthy

명령 구문에 풀 이름을 지정하면 특정 풀을 조사할 수 있습니다. ONLINE 상태에 있지 않은 모든 풀은 다음 절에 설명된 대로 잠재적인 문제를 조사해야 합니다.

자세한 건전성 상태

- v 옵션을 사용하여 좀더 자세한 건전성 요약 상태를 요청할 수 있습니다. 예를 들면 다음과 같습니다.

# zpool status -v pond
  pool: pond
 state: DEGRADED
status: One or more devices are unavailable in response to persistent errors.
        Sufficient replicas exist for the pool to continue functioning in a
        degraded state.
action: Determine if the device needs to be replaced, and clear the errors
        using 'zpool clear' or 'fmadm repaired', or replace the device
        with 'zpool replace'.
  scan: scrub repaired 0 in 0h0m with 0 errors on Wed Jun 20 15:38:08 2012
config:

        NAME                       STATE     READ WRITE CKSUM
        pond                       DEGRADED     0     0     0
          mirror-0                 DEGRADED     0     0     0
            c0t5000C500335F95E3d0  ONLINE       0     0     0
            c0t5000C500335F907Fd0  UNAVAIL      0     0     0
          mirror-1                 ONLINE       0     0     0
            c0t5000C500335BD117d0  ONLINE       0     0     0
            c0t5000C500335DC60Fd0  ONLINE       0     0     0

device details:

        c0t5000C500335F907Fd0    UNAVAIL          cannot open
        status: ZFS detected errors on this device.
                The device was missing.
           see: http://support.oracle.com/msg/ZFS-8000-LR for recovery


errors: No known data errors

이 출력 결과는 풀이 현재 상태인 이유에 대해 자세히 설명합니다. 여기에는 이해하기 쉬운 설명과 추가 정보를 얻을 수 있는 기술 자료 문서 링크가 포함됩니다. 기술 자료 문서는 현재 문제로부터 복구할 수 있는 가장 좋은 방법에 대한 최신 정보를 제공합니다. 자세한 구성 정보를 사용하면 어떤 장치가 손상되고 어떻게 풀을 복구할 수 있는지 확인할 수 있습니다.

위 예에서 UNAVAIL 장치는 교체해야 합니다. 장치가 교체된 후 필요에 따라 zpool online 명령을 사용하여 장치를 온라인으로 전환합니다. 예를 들면 다음과 같습니다.

# zpool online pond c0t5000C500335F907Fd0
warning: device 'c0t5000C500335DC60Fd0' onlined, but remains in degraded state
# zpool status -x
all pools are healthy

위 출력 결과에서는 리실버링이 완료될 때까지 장치가 성능 저하 상태로 유지됨을 알 수 있습니다.

autoreplace 등록 정보가 on인 경우에는 교체된 장치를 온라인으로 전환하지 않아도 될 수 있습니다.

풀에 오프라인 장치가 있을 경우 명령 출력 결과는 문제가 있는 풀을 나타냅니다. 예를 들면 다음과 같습니다.

# zpool status -x
 pool: pond
 state: DEGRADED
status: One or more devices has been taken offline by the administrator.
        Sufficient replicas exist for the pool to continue functioning in a
        degraded state.
action: Online the device using 'zpool online' or replace the device with
        'zpool replace'.
config:

        NAME                       STATE     READ WRITE CKSUM
        pond                       DEGRADED     0     0     0
          mirror-0                 DEGRADED     0     0     0
            c0t5000C500335F95E3d0  ONLINE       0     0     0
            c0t5000C500335F907Fd0  OFFLINE      0     0     0
          mirror-1                 ONLINE       0     0     0
            c0t5000C500335BD117d0  ONLINE       0     0     0
            c0t5000C500335DC60Fd0  ONLINE       0     0     0

errors: No known data errors

READWRITE 열은 장치에서 발생한 I/O 오류 수를 제공하고, CKSUM 열은 장치에서 발생한 수정할 수 없는 체크섬 오류 수를 제공합니다. 두 오류 수는 모두 잠재적인 장치 실패를 나타내며, 일부는 수정 조치가 필요합니다. 최상위 레벨 가상 장치에 대해 0이 아닌 오류가 보고될 경우 데이터 중 일부에 액세스하지 못할 수 있습니다.

errors: 필드는 알려진 데이터 오류를 나타냅니다.

위의 예에 나온 출력 결과에서 오프라인 장치는 데이터 오류를 유발하지 않습니다.

UNAVAIL 상태의 풀 및 데이터 진단과 복구에 대한 자세한 내용은 10 장Oracle Solaris ZFS 문제 해결 및 풀 복구를 참조하십시오.

ZFS 저장소 풀 상태 정보 수집

zpool status 간격 및 수 옵션을 사용하여 기간에 따른 통계를 수집할 수 있습니다. 또한 -T 옵션을 사용하면 시간 기록을 표시할 수 있습니다. 예를 들면 다음과 같습니다.

# zpool status -T d 3 2
Wed Jun 20 16:10:09 MDT 2012
  pool: pond
 state: ONLINE
  scan: resilvered 9.50K in 0h0m with 0 errors on Wed Jun 20 16:07:34 2012
config:

        NAME                       STATE     READ WRITE CKSUM
        pond                       ONLINE       0     0     0
          mirror-0                 ONLINE       0     0     0
            c0t5000C500335F95E3d0  ONLINE       0     0     0
            c0t5000C500335F907Fd0  ONLINE       0     0     0
          mirror-1                 ONLINE       0     0     0
            c0t5000C500335BD117d0  ONLINE       0     0     0
            c0t5000C500335DC60Fd0  ONLINE       0     0     0

errors: No known data errors

  pool: rpool
 state: ONLINE
  scan: scrub repaired 0 in 0h11m with 0 errors on Wed Jun 20 15:08:23 2012
config:

        NAME                         STATE     READ WRITE CKSUM
        rpool                        ONLINE       0     0     0
          mirror-0                   ONLINE       0     0     0
            c0t5000C500335BA8C3d0s0  ONLINE       0     0     0
            c0t5000C500335FC3E7d0s0  ONLINE       0     0     0

errors: No known data errors
Wed Jun 20 16:10:12 MDT 2012

  pool: pond
 state: ONLINE
  scan: resilvered 9.50K in 0h0m with 0 errors on Wed Jun 20 16:07:34 2012
config:

        NAME                       STATE     READ WRITE CKSUM
        pond                       ONLINE       0     0     0
          mirror-0                 ONLINE       0     0     0
            c0t5000C500335F95E3d0  ONLINE       0     0     0
            c0t5000C500335F907Fd0  ONLINE       0     0     0
          mirror-1                 ONLINE       0     0     0
            c0t5000C500335BD117d0  ONLINE       0     0     0
            c0t5000C500335DC60Fd0  ONLINE       0     0     0

errors: No known data errors

  pool: rpool
 state: ONLINE
  scan: scrub repaired 0 in 0h11m with 0 errors on Wed Jun 20 15:08:23 2012
config:

        NAME                         STATE     READ WRITE CKSUM
        rpool                        ONLINE       0     0     0
          mirror-0                   ONLINE       0     0     0
            c0t5000C500335BA8C3d0s0  ONLINE       0     0     0
            c0t5000C500335FC3E7d0s0  ONLINE       0     0     0

errors: No known data errors