Oracle® Solaris 11.2의 ZFS 파일 시스템 관리

인쇄 보기 종료

업데이트 날짜: 2014년 12월
 
 

ZFS 저장소 풀에 대한 정보 표시

zpool list 명령을 사용하여 풀에 대한 기본 정보를 표시할 수 있습니다.

모든 저장소 풀 또는 특정 풀에 대한 정보 표시

인수 없는 zpool list 명령은 시스템의 모든 풀에 대한 다음 정보를 표시합니다.

# zpool list
NAME                    SIZE    ALLOC   FREE    CAP  HEALTH     ALTROOT
tank                   80.0G   22.3G   47.7G    28%  ONLINE     -
dozer                   1.2T    384G    816G    32%  ONLINE     -

이 명령 출력 결과에는 다음 정보가 표시됩니다.

NAME

풀의 이름입니다.

SIZE

모든 최상위 레벨 가상 장치의 합계와 같은 풀의 총 크기입니다.

ALLOC

모든 데이터 세트 및 내부 메타 데이터에 할당된 물리적 공간의 양입니다. 이 양은 파일 시스템 레벨에서 보고되는 디스크 공간의 양과 다를 수 있습니다.

사용 가능한 파일 시스템 공간에 대한 자세한 내용은 ZFS 디스크 공간 계산을 참조하십시오.

FREE

풀에서 할당되지 않은 공간의 양입니다.

CAP(CAPACITY)

사용된 디스크 공간의 양으로 총 디스크 공간의 백분율로 표시됩니다.

HEALTH

풀의 현재 건전성 상태입니다.

풀 건전성에 대한 자세한 내용은 ZFS 저장소 풀의 건전성 상태 확인을 참조하십시오.

ALTROOT

풀의 대체 루트입니다(존재하는 경우).

대체 루트 풀에 대한 자세한 내용은 대체 루트 위치에 ZFS 풀 사용을 참조하십시오.

풀 이름을 지정하면 특정 풀에 대한 통계를 수집할 수도 있습니다. 예를 들면 다음과 같습니다.

# zpool list tank
NAME                    SIZE    ALLOC   FREE    CAP   HEALTH     ALTROOT
tank                   80.0G    22.3G   47.7G    28%  ONLINE     -

zpool list 간격 및 수 옵션을 사용하여 기간에 따른 통계를 수집할 수 있습니다. 또한 –T 옵션을 사용하면 시간 기록을 표시할 수 있습니다. 예를 들면 다음과 같습니다.

# zpool list -T d 3 2
Tue Nov  2 10:36:11 MDT 2010
NAME    SIZE  ALLOC   FREE    CAP  DEDUP  HEALTH  ALTROOT
pool   33.8G  83.5K  33.7G     0%  1.00x  ONLINE  -
rpool  33.8G  12.2G  21.5G    36%  1.00x  ONLINE  -
Tue Nov  2 10:36:14 MDT 2010
pool   33.8G  83.5K  33.7G     0%  1.00x  ONLINE  -
rpool  33.8G  12.2G  21.5G    36%  1.00x  ONLINE  -

물리적 위치로 풀 장치 표시

zpool status –l 옵션을 사용하여 풀 장치의 물리적 위치 정보를 표시할 수 있습니다. 디스크를 물리적으로 제거하거나 교체해야 하는 경우 물리적 위치 정보를 검토하는 것이 유용합니다.

또한 fmadm add-alias 명령을 사용하여 환경에 있는 디스크의 물리적 위치를 식별하는 데 도움이 되는 디스크 별칭을 포함시킬 수 있습니다. 예를 들면 다음과 같습니다.

# fmadm add-alias SUN-Storage-J4400.1002QCQ015 Lab10Rack5...
# zpool status -l tank
pool: tank
state: ONLINE
scan: scrub repaired 0 in 0h0m with 0 errors on Fri Aug  3 16:00:35 2012
config:

NAME                                            STATE     READ  WRITE  CKSUM
tank                                            ONLINE       0      0      0
   mirror-0                                     ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_02/disk   ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_20/disk   ONLINE       0      0      0
   mirror-1                                     ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_22/disk   ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_14/disk   ONLINE       0      0      0
   mirror-2                                     ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_10/disk   ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_16/disk   ONLINE       0      0      0
   mirror-3                                     ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_01/disk   ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_21/disk   ONLINE       0      0      0
   mirror-4                                     ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_23/disk   ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_15/disk   ONLINE       0      0      0
   mirror-5                                     ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_09/disk   ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_04/disk   ONLINE       0      0      0
   mirror-6                                     ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_08/disk   ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_05/disk   ONLINE       0      0      0
   mirror-7                                     ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_07/disk   ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_11/disk   ONLINE       0      0      0
   mirror-8                                     ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_06/disk   ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_19/disk   ONLINE       0      0      0
   mirror-9                                     ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_00/disk   ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_13/disk   ONLINE       0      0      0
   mirror-10                                    ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_03/disk   ONLINE       0      0      0
      /dev/chassis/Lab10Rack5.../DISK_18/disk   ONLINE       0      0      0
   spares
      /dev/chassis/Lab10Rack5.../DISK_17/disk   AVAIL
      /dev/chassis/Lab10Rack5.../DISK_12/disk   AVAIL

errors: No known data errors

특정 저장소 풀 통계 표시

–o 옵션을 사용하여 특정 통계를 요청할 수 있습니다. 이 옵션은 사용자 정의 보고서 또는 관련 정보를 나열할 수 있는 빠른 방법을 제공합니다. 예를 들어, 각 풀의 이름과 크기만 나열하려면 다음 구문을 사용합니다.

# zpool list -o name,size
NAME                    SIZE
tank                   80.0G
dozer                   1.2T

열 이름은 모든 저장소 풀 또는 특정 풀에 대한 정보 표시에 나열된 등록 정보와 일치합니다.

ZFS 저장소 풀 출력 결과 스크립팅

zpool list 명령에 대한 기본 출력은 읽기 편의성을 위주로 디자인되었으며 셸 스크립트의 일부로 사용하기는 쉽지 않습니다. 명령의 프로그래밍 사용 목적을 위해서는 –H 옵션을 사용하여 열 머리글을 숨기고 공백 대신 탭으로 필드를 구분할 수 있습니다. 예를 들어, 시스템의 모든 풀 이름 목록을 요청하려면 다음 구문을 사용합니다.

# zpool list -Ho name
tank
dozer

다음은 다른 예입니다.

# zpool list -H -o name,size
tank   80.0G
dozer  1.2T

ZFS 저장소 풀 명령 내역 표시

ZFS는 풀 상태 정보를 수정하는 데 성공한 zfszpool 명령을 자동으로 기록합니다. 이 정보는 zpool history 명령을 사용하여 표시할 수 있습니다.

예를 들어, 다음 구문은 루트 풀에 대한 명령 출력 결과입니다.

# zpool history
History for 'rpool':
2012-04-06.14:02:55 zpool create -f rpool c3t0d0s0
2012-04-06.14:02:56 zfs create -p -o mountpoint=/export rpool/export
2012-04-06.14:02:58 zfs set mountpoint=/export rpool/export
2012-04-06.14:02:58 zfs create -p rpool/export/home
2012-04-06.14:03:03 zfs create -p -V 2048m rpool/swap
2012-04-06.14:03:08 zfs set primarycache=metadata rpool/swap
2012-04-06.14:03:09 zfs create -p -V 4094m rpool/dump
2012-04-06.14:26:47 zpool set bootfs=rpool/ROOT/s11u1 rpool
2012-04-06.14:31:15 zfs set primarycache=metadata rpool/swap
2012-04-06.14:31:46 zfs create -o canmount=noauto -o mountpoint=/var/share rpool/VARSHARE
2012-04-06.15:22:33 zfs set primarycache=metadata rpool/swap
2012-04-06.16:42:48 zfs set primarycache=metadata rpool/swap
2012-04-09.16:17:24 zfs snapshot -r rpool/ROOT@yesterday
2012-04-09.16:17:54 zfs snapshot -r rpool/ROOT@now

시스템에서 유사한 출력을 사용하여 오류 조건을 해결하기 위해 실행된 실제 ZFS 명령을 식별할 수 있습니다.

내역 로그의 특징은 다음과 같습니다.

  • 로그를 사용 안함으로 설정할 수 없습니다.

  • 로그는 디스크에 지속적으로 저장됩니다. 즉, 시스템을 재부트해도 로그가 손실되지 않습니다.

  • 링 버퍼로 구현됩니다. 최소 크기는 128KB입니다. 최대 크기는 32MB입니다.

  • 소형 풀의 경우 최대 크기가 풀 크기의 1%로 제한됩니다. 이 크기는 풀 생성 시점에 결정됩니다.

  • 로그는 관리가 필요하지 않습니다. 즉, 로그 크기 조정이나 로그 위치 변경이 불필요합니다.

특정 저장소 풀의 명령 내역을 확인하려면 다음과 유사한 구문을 사용합니다.

# zpool history tank
2012-01-25.16:35:32 zpool create -f tank mirror c3t1d0 c3t2d0 spare c3t3d0
2012-02-17.13:04:10 zfs create tank/test
2012-02-17.13:05:01 zfs snapshot -r tank/test@snap1

–l 옵션을 사용하여 작업이 수행된 사용자 이름, 호스트 이름 및 영역이 포함된 긴 형식을 표시합니다. 예를 들면 다음과 같습니다.

# zpool history -l tank
History for 'tank':
2012-01-25.16:35:32 zpool create -f tank mirror c3t1d0 c3t2d0 spare c3t3d0
[user root on tardis:global]
2012-02-17.13:04:10 zfs create tank/test [user root on tardis:global]
2012-02-17.13:05:01 zfs snapshot -r tank/test@snap1 [user root on tardis:global]

–i 옵션을 사용하여 진단용으로 사용할 수 있는 내부 이벤트 정보를 표시합니다. 예를 들면 다음과 같습니다.

# zpool history -i tank
History for 'tank':
2012-01-25.16:35:32 zpool create -f tank mirror c3t1d0 c3t2d0 spare c3t3d0
2012-01-25.16:35:32 [internal pool create txg:5] pool spa 33; zfs spa 33; zpl 5;
uts tardis 5.11 11.1 sun4v
2012-02-17.13:04:10 zfs create tank/test
2012-02-17.13:04:10 [internal property set txg:66094] $share2=2 dataset = 34
2012-02-17.13:04:31 [internal snapshot txg:66095] dataset = 56
2012-02-17.13:05:01 zfs snapshot -r tank/test@snap1
2012-02-17.13:08:00 [internal user hold txg:66102] <.send-4736-1> temp = 1 ...