다음 절에는 ZFS 파일 시스템의 새로운 기능이 요약되어 있습니다. 이러한 새 기능에 대한 자세한 내용은 Solaris ZFS Administration Guide를 참조하십시오.
ZFS 설치 및 부트 지원 – Solaris 10 10/08 릴리스부터는 ZFS 루트 파일 시스템을 설치 및 부트할 수 있습니다. 초기 설치 옵션이나 JumpStart 기능을 사용하여 ZFS 루트 파일 시스템을 설치할 수 있습니다. Solaris Live Upgrade 기능을 사용하여 UFS 루트 파일 시스템을 ZFS 루트 파일 시스템으로 마이그레이션할 수 있습니다. 스왑 및 덤프 장치에 대한 ZFS 지원도 제공됩니다.
마운트 해제 없이 ZFS 데이터 세트 롤백 – Solaris 10 10/08 릴리스부터는 처음에 마운트 해제하지 않고도 데이터 세트를 롤백할 수 있습니다. 이 기능은 마운트 해제 작업을 강제로 적용하기 위해 zfs rollback -f 옵션이 더 이상 필요하지 않다는 것을 의미합니다. -f 옵션은 더 이상 지원되지 않으며 지정된 경우 무시됩니다.
zfs send 명령의 향상된 기능 – Solaris 10 10/08 릴리스에는 zfs send 명령에 대한 다음과 같은 향상된 기능이 포함되어 있습니다.
하나의 스냅샷에서 누적 스냅샷으로 모든 증분 스트림을 보낼 수 있습니다. 예를 들면 다음과 같습니다.
# zfs list NAME USED AVAIL REFER MOUNTPOINT pool 428K 16.5G 20K /pool pool/fs 71K 16.5G 21K /pool/fs pool/fs@snapA 16K - 18.5K - pool/fs@snapB 17K - 20K - pool/fs@snapC 17K - 20.5K - pool/fs@snapD 0 - 21K - # zfs send -I pool/fs@snapA pool/fs@snapD > /snaps/fs@combo |
이 구문은 fs@snapA와 fs@snapD와 fs@combo 간에 모든 증분 스냅샷을 보내는 방법을 보여 줍니다.
원본 스냅샷의 증분 스트림을 보내 복제를 만들 수 있습니다. 증분 스트림을 수락하려면 수신측에 원본 스냅샷이 있어야 합니다. 예를 들면 다음과 같습니다.
# zfs send -I pool/fs@snap1 pool/clone@snapA > /snaps/fsclonesnap-I . . # zfs receive -F pool/clone < /snaps/fsclonesnap-I |
명명된 스냅샷을 포함하여 모든 하위 파일 시스템의 복제 스트림을 보낼 수 있습니다. 복제 스트림을 받으면 모든 등록 정보, 스냅샷, 하위 파일 시스템 및 복제 내용이 보존됩니다. 예를 들면 다음과 같습니다.
# zfs send -R pool/fs@snap > snaps/fs-R |
증분 복제 스트림을 보낼 수 있습니다.
zfs send -R -[iI] @snapA pool/fs@snapD |
확장 예제는 Solaris ZFS Administration Guide를 참조하십시오.
파일 시스템 데이터 전용 ZFS 할당량 및 예약 – Solaris 10 10/08 릴리스부터 공간 소모량 계산에 스냅샷 및 복제 등의 하위 요소를 포함하지 않는 데이터 세트 할당량 및 예약이 제공됩니다. 기존 ZFS 할당량 및 예약 기능은 이전 Solaris 릴리스와 동일하게 유지됩니다.
refquota 등록 정보는 데이터 집합에서 소모할 수 있는 총 공간을 제한합니다. 이 등록 정보를 사용하면 사용할 수 있는 총 공간에 하드 한계를 적용할 수 있습니다. 이 하드 한계에는 스냅샷 및 복제와 같은 하위 항목에서 사용된 공간이 포함되지 않습니다.
refreservation 등록 정보는 하위 항목을 제외하고, 데이터 집합에 보장되는 최소 공간을 설정합니다.
예를 들어, studentA에 대해 하드 제한이 10GB인 참조 공간을 설정하는 10GB refquota를 설정합니다. 유연하게 사용하려면 studentA의 스냅샷을 관리할 수 있도록 20GB 할당량을 설정할 수 있습니다.
# zfs set refquota=10g tank/studentA # zfs set quota=20g tank/studentA |
ZFS 저장소 풀 등록 정보 – Solaris 10 10/08 릴리스에는 새 ZFS 저장소 풀 등록 정보가 제공됩니다.
모든 풀 속성 표시 – zpool get all pool 명령을 사용하여 풀 등록 정보를 모두 표시할 수 있습니다. 예를 들면 다음과 같습니다.
# zpool get all users NAME PROPERTY VALUE SOURCE users size 16.8G - users used 194K - users available 16.7G - users capacity 0% - users altroot - default users health ONLINE - users guid 14526624140147884971 - users version 10 default users bootfs - default users delegation on default users autoreplace off default users cachefile - default users failmode wait default |
cachefile 등록 정보 – 이 릴리스에서는 풀 구성 정보가 캐시되는 위치를 제어하는 cachefile 등록 정보를 제공합니다. 시스템이 부트되면 캐시에 있는 모든 풀을 자동으로 가져옵니다. 그러나 설치 및 클러스터링 환경에서는 풀을 자동으로 가져오지 않으므로 해당 정보를 다른 위치에 캐시해야 할 수 있습니다.
zpool import -명령을 사용하여 나중에 가져올 수 있는 다른 위치에 풀 구성을 캐시하도록 이 등록 정보를 설정할 수 있습니다. 대부분의 ZFS 구성의 경우 이 등록 정보를 사용하지 않습니다.
cachefile 등록 정보는 지속되지 않으며 디스크에 저장되지 않습니다. 이 등록 정보는 이전 Solaris 릴리스에서 풀 정보를 캐시하지 않아야 함을 나타내는데 사용된 temporary 등록 정보를 대체합니다.
failmode 등록 정보 – 이 릴리스에서는 풀에서의 모든 장치 실패 또는 장치 연결 손실로 인한 catastrophic 풀 동작 실패를 결정하는 failmode 등록 정보를 제공합니다. failmode 등록 정보를 대기, 계속 또는 패닉과 같은 값으로 설정할 수 있습니다. 기본값은 대기이며, 이는 장치를 다시 연결하거나 실패한 장치를 대체하고 zpool clear 명령을 사용하여 오류를 지웁니다.
failmode 등록 정보는 기타 설정 가능한 ZFS 등록 정보와 같이 설정되며, 풀을 만들기 전이나 후에 설정할 수 있습니다. 예를 들면 다음과 같습니다.
# zpool set failmode=continue tank # zpool get failmode tank NAME PROPERTY VALUE SOURCE tank failmode continue local |
# zpool create -o failmode=continue users mirror c0t1d0 c1t1d0 |
ZFS 명령 내역 향상(zpool history) – Solaris 10 10/08 릴리스부터는 zpool history 명령에서 다음과 같은 새로운 기능을 제공합니다.
ZFS 파일 시스템 이벤트 정보가 표시됩니다. 예를 들면 다음과 같습니다.
# zpool history users History for 'users': 2008-07-10.09:43:05 zpool create users mirror c1t1d0 c1t2d0 2008-07-10.09:43:48 zfs create users/home 2008-07-10.09:43:56 zfs create users/home/markm 2008-07-10.09:44:02 zfs create users/home/marks 2008-07-10.09:44:19 zfs snapshot -r users/home@yesterday |
-l 옵션은 작업이 수행된 사용자 이름, 호스트 이름 및 영역이 포함된 긴 형식을 표시합니다. 예를 들면 다음과 같습니다.
# zpool history -l users History for 'users': 2008-07-10.09:43:05 zpool create users mirror c1t1d0 c1t2d0 [user root on corona:global] 2008-07-10.09:43:13 zfs create users/marks [user root on corona:global] 2008-07-10.09:43:44 zfs destroy users/marks [user root on corona:global] 2008-07-10.09:43:48 zfs create users/home [user root on corona:global] 2008-07-10.09:43:56 zfs create users/home/markm [user root on corona:global] 2008-07-10.09:44:02 zfs create users/home/marks [user root on corona:global] 2008-07-11.10:44:19 zfs snapshot -r users/home@yesterday [user root on corona:global] |
-i 옵션은 진단용으로 사용할 수 있는 내부 이벤트 정보를 표시합니다. 예를 들면 다음과 같습니다.
# zpool history -i users History for 'users': 2008-07-10.09:43:05 zpool create users mirror c1t1d0 c1t2d0 2008-07-10.09:43:13 [internal create txg:6] dataset = 21 2008-07-10.09:43:13 zfs create users/marks 2008-07-10.09:43:48 [internal create txg:12] dataset = 27 2008-07-10.09:43:48 zfs create users/home 2008-07-10.09:43:55 [internal create txg:14] dataset = 33 2008-07-10.09:43:56 zfs create users/home/markm 2008-07-10.09:44:02 [internal create txg:16] dataset = 39 2008-07-10.09:44:02 zfs create users/home/marks 2008-07-10.09:44:19 [internal snapshot txg:21] dataset = 42 2008-07-10.09:44:19 [internal snapshot txg:21] dataset = 44 2008-07-10.09:44:19 [internal snapshot txg:21] dataset = 46 2008-07-10.09:44:19 zfs snapshot -r users/home@yesterday |
ZFS 파일 시스템 업그레이드(zfs upgrade) – Solaris 10 10/08 릴리스부터는 zfs upgrade 명령을 사용하여 기존 ZFS 파일 시스템을 새 파일 시스템 개선 사항으로 업그레이드할 수 있습니다. 기존 저장소 풀에 풀 향상을 제공할 수 있도록 ZFS 저장소 풀에도 유사한 업그레이드 기능이 포함되었습니다.
예를 들면 다음과 같습니다.
# zfs upgrade This system is currently running ZFS filesystem version 2. The following filesystems are out of date, and can be upgraded. After being upgraded, these filesystems (and any 'zfs send' streams generated from subsequent snapshots) will no longer be accessible by older software versions. VER FILESYSTEM --- ------------ 1 datab 1 datab/users 1 datab/users/area51 |
zfs send 명령으로 업그레이드된 파일 시스템과 업그레이드된 해당 파일 시스템에서 만들어진 스트림은 이전 소프트웨어 릴리스가 실행 중인 시스템에서 액세스할 수 없습니다.
ZFS 위임 관리 – Solaris 10 10/08 릴리스부터 권한이 없는 사용자에게 ZFS 관리 작업을 수행하도록 세분화된 권한을 위임할 수 있습니다.
zfs allow 및 zfs unallow 명령을 사용하여 권한을 부여하고 제거할 수 있습니다.
풀의 delegation 등록 정보를 통하여 위임 관리를 사용하는 기능을 수정할 수 있습니다. 예를 들면 다음과 같습니다.
# zpool get delegation users NAME PROPERTY VALUE SOURCE users delegation on default # zpool set delegation=off users # zpool get delegation users NAME PROPERTY VALUE SOURCE users delegation off local |
기본적으로 delegation 등록 정보는 활성화됩니다.
별도의 ZFS 로깅 장치 설정 – 동기식 트랜잭션을 위한 POSIX 요구 사항을 충족할 수 있도록 ZFS 의도 로그(ZFS intent log, ZIL)가 제공됩니다. 예를 들어 데이터베이스의 트랜잭션이 시스템 호출에서 반환될 때 안정된 저장 장치에서 이루어져야 할 경우가 자주 있습니다. NFS 및 기타 응용 프로그램은 fsync()를 사용하여 데이터 안정성을 확보할 수도 있습니다. 기본적으로 ZIL은 기본 저장소 풀의 블록에서 할당됩니다. 하지만 ZFS 저장소 풀에 NVRAM이나 전용 디스크와 같은 별도의 ZIL 장치를 사용하여 Solaris 10 10/08 릴리스의 성능을 높일 수도 있습니다.
ZIL의 로그 장치는 데이터베이스 로그 파일과 관련이 없습니다.
저장소 풀을 만들거나 해당 풀이 만들어진 후 ZFS 로깅 장치를 설정할 수 있습니다. 로그 장치 설정 예는 Solaris ZFS Administration Guide를 참조하십시오.
중간 ZFS 데이터 세트 만들기 - Solaris 10 10/08 릴리스부터는 -p 옵션을 zfs create, zfs clone 및 zfs rename 명령과 함께 사용하여 존재하지 않는 중간 데이터 세트(기존에 없는 경우)를 신속하게 만들 수 있습니다.
예를 들면, datab 저장소 풀에 ZFS 데이터 집합(users/area51)을 만듭니다.
# zfs list NAME USED AVAIL REFER MOUNTPOINT datab 106K 16.5G 18K /datab # zfs create -p -o compression=on datab/users/area51 |
만들기 작업 도중 중간 데이터 집합이 이미 존재하는 경우에도 작업이 성공적으로 완료됩니다.
지정된 등록 정보는 중간 데이터 집합이 아니라 대상 데이터 집합에 적용됩니다. 예를 들면 다음과 같습니다.
# zfs get mountpoint,compression datab/users/area51 NAME PROPERTY VALUE SOURCE datab/users/area51 mountpoint /datab/users/area51 default datab/users/area51 compression on local |
기본 마운트 지점으로 중간 데이터 집합이 만들어집니다. 중간 데이터 집합에 대한 모든 추가 등록 정보는 비활성화됩니다. 예를 들면 다음과 같습니다.
# zfs get mountpoint,compression datab/users NAME PROPERTY VALUE SOURCE datab/users mountpoint /datab/users default datab/users compression off default |
자세한 내용은 zfs(1M)를 참조하십시오.
ZFS 핫 플러깅 개선 사항 – Solaris 10 10/08 릴리스부터 ZFS가 제거된 장치에 보다 효과적으로 응답하고 삽입된 장치를 자동으로 식별할 수 있는 메커니즘을 제공합니다.
zpool replace 명령을 사용하지 않고도 기존 장치를 동급 장치로 대체할 수 있습니다.
autoreplace 등록 정보는 장치 자동 대체를 제어합니다. 이 등록 정보가 꺼짐으로 설정된 경우, 장치 교체는 관리자가 zpool replace 명령을 사용하여 시작해야 합니다. 이 등록 정보가 켜짐으로 설정된 경우, 새 장치가 이전에 풀에 속해 있던 장치와 동일한 물리적 위치에서 발견되면 자동으로 포맷되고 교체됩니다. 기본 동작은 꺼짐입니다.
시스템 실행 도중 장치가 물리적으로 제거되는 경우, 장치 또는 핫 스페어가 제거되고 나면 저장소 풀 상태 REMOVED가 제공됩니다. 가능한 경우, 제거된 장치 대신 핫 스페어 장치가 대체됩니다.
장치를 제거한 후 삽입하면 이 장치는 온라인으로 배치됩니다. 장치를 다시 삽입할 때 핫 스페어가 활성화된 경우, 온라인 작업이 완료되면 해당 핫 스페어가 제거됩니다.
장치 제거 또는 삽입 자동 감지는 하드웨어에 따라 다르며 일부 플랫폼에서는 지원되지 않을 수 있습니다. 예를 들어 USB 장치는 삽입 즉시 자동으로 구성됩니다. 그러나 cfgadm -c configure 명령을 사용하여 SATA 드라이브를 구성해야 할 수 있습니다.
핫 스페어는 온라인 상태이고 사용 가능한지 정기적으로 점검됩니다.
자세한 내용은 zpool(1M) 매뉴얼 페이지를 참조하십시오.
재귀적으로 ZFS 스냅샷 이름 바꾸기( zfs rename -r) – Solaris 10 10/08 릴리스부터 zfs rename -r 명령을 사용하여 모든 하위 ZFS 스냅샷의 이름을 재귀적으로 바꿀 수 있습니다.
예를 들어, ZFS 파일 시스템 세트의 스냅샷을 다음과 같이 만듭니다.
# zfs snapshot -r users/home@today # zfs list NAME USED AVAIL REFER MOUNTPOINT users 216K 16.5G 20K /users users/home 76K 16.5G 22K /users/home users/home@today 0 - 22K - users/home/markm 18K 16.5G 18K /users/home/markm users/home/markm@today 0 - 18K - users/home/marks 18K 16.5G 18K /users/home/marks users/home/marks@today 0 - 18K - users/home/neil 18K 16.5G 18K /users/home/neil users/home/neil@today 0 - 18K - |
다음 날에 해당 스냅샷의 이름을 바꿉니다.
# zfs rename -r users/home@today @yesterday # zfs list NAME USED AVAIL REFER MOUNTPOINT users 216K 16.5G 20K /users users/home 76K 16.5G 22K /users/home users/home@yesterday 0 - 22K - users/home/markm 18K 16.5G 18K /users/home/markm users/home/markm@yesterday 0 - 18K - users/home/marks 18K 16.5G 18K /users/home/marks users/home/marks@yesterday 0 - 18K - users/home/neil 18K 16.5G 18K /users/home/neil users/home/neil@yesterday 0 - 18K - |
스냅샷은 재귀적으로 이름을 변경할 수 있는 유일한 데이터 세트입니다.
이제 GZIP 압축을 ZFS에 사용할 수 있음 – Solaris 10 10/08 릴리스부터 ZFS 파일 시스템에서 gzip 압축과 함께 lzjb 압축을 설정할 수 있습니다. gzip , 기본값 또는 gzip-N(여기서 N은 1 - 9에 해당)으로 압축을 지정할 수 있습니다. 예를 들면 다음과 같습니다.
# zfs create -o compression=gzip users/home/snapshots # zfs get compression users/home/snapshots NAME PROPERTY VALUE SOURCE users/home/snapshots compression gzip local # zfs create -o compression=gzip-9 users/home/oldfiles # zfs get compression users/home/oldfiles NAME PROPERTY VALUE SOURCE users/home/oldfiles compression gzip-9 local |
ZFS 사용자 데이터의 여러 복사본 저장 – ZFS 파일 시스템은 여러 디스크에서 가능한 경우 여러 번 메타데이터를 신뢰성 기능으로 저장합니다. 이 기능은 복제 블록(ditto blocks)으로 알려져 있습니다. Solaris 10 10/08 릴리스부터 사용자 데이터도 zfs set copies 명령을 사용하여 파일 시스템당 여러 개의 복사본을 저장하도록 지정할 수 있습니다. 예를 들면 다음과 같습니다.
# zfs set copies=2 users/home # zfs get copies users/home NAME PROPERTY VALUE SOURCE users/home copies 2 local |
사용 가능한 값은 1, 2 또는 3입니다. 기본값은 1입니다. 이러한 사본은 미러된 구성 또는 RAID-Z 구성에서와 같이 모든 풀 레벨 중복에 추가됩니다.
이 등록 정보 사용에 대한 자세한 내용은 Solaris ZFS Administration Guide를 참조하십시오.
다음과 같은 기능이 이전 Solaris OS 릴리스에 도입되었습니다.
ZFS 명령 기록(zpool history) – Solaris 10 8/07 릴리스에서 ZFS는 풀 상태 정보를 수정하는 데 성공한 zfs 및 zpool 명령을 자동으로 기록합니다. 이 기능을 사용하면 오류 시나리오의 문제를 해결하기 위해 실행된 ZFS 명령을 정확하게 식별할 수 있습니다.
향상된 저장소 풀 상태 정보(zpool status) – Solaris 10 8/07 릴리스에서 zpool status -v 명령을 사용하여 오류가 지속되는 파일 목록을 조회할 수 있습니다. 이전에는 find -inum 명령을 사용하여 표시된 Inode 목록에서 파일 이름을 식별해야 했습니다.
ZFS 및 Solaris iSCSI 향상 – Solaris 10 8/07 릴리스에서 ZFS 볼륨에 shareiscsi 등록 정보를 설정하여 ZFS 볼륨을 Solaris iSCSI 대상 장치로 생성할 수 있습니다. 이 방법을 사용하면 Solaris iSCSI 대상을 신속하고 간편하게 설정할 수 있습니다. 예를 들면 다음과 같습니다.
# zfs create -V 2g tank/volumes/v2 # zfs set shareiscsi=on tank/volumes/v2 # iscsitadm list target Target: tank/volumes/v2 iSCSI Name: iqn.1986-03.com.sun:02:984fe301-c412-ccc1-cc80-cf9a72aa062a Connections: 0 |
iSCSI 대상을 만든 후에는 iSCSI 초기화 프로그램을 설정합니다. Solaris iSCSI 초기화 프로그램에 대한 자세한 내용은 System Administration Guide: Devices and File Systems의 14 장, Configuring Solaris iSCSI Targets and Initiators (Tasks)를 참조하십시오.
ZFS 볼륨을 iSCSI 대상으로 관리하는 방법에 대한 자세한 내용은 Solaris ZFS Administration Guide를 참조하십시오.
ZFS 등록 정보 향상
ZFS xattr 등록 정보 – Solaris 10 8/07 릴리스에서 xattr 등록 정보를 사용하여 특정 ZFS 파일 시스템에 대해 확장 속성을 비활성화하거나 활성화할 수 있습니다. 기본값은 on입니다.
ZFS canmount 등록 정보 – Solaris 10 8/07 릴리스에서 canmount 등록 정보를 사용하여 zfs mount 명령을 통해 데이터 세트를 마운트할 것인지 여부를 지정할 수 있습니다.
ZFS 사용자 등록 정보 – Solaris 10 8/07 릴리스에서 ZFS는 내부 통계로 가져오거나 ZFS 파일 시스템 동작을 제어할 수 있는 표준 고유 등록 정보와 함께 사용자 등록 정보를 지원합니다. 사용자 등록 정보는 ZFS 동작에는 영향을 주지 않지만 이를 사용하여 해당 환경에서 중요한 정보를 데이터 세트에 주석으로 달 수 있습니다.
ZFS 파일 시스템 생성 시 등록 정보 설정 – Solaris 10 8/07 릴리스에서 파일 시스템을 생성할 때 등록 정보를 설정할 수 있을 뿐 아니라 파일 시스템을 생성한 후에도 등록 정보를 설정할 수 있습니다.
다음 예는 이러한 구문을 보여 줍니다.
# zfs create tank/home # zfs set mountpoint=/export/zfs tank/home # zfs set sharenfs=on tank/home # zfs set compression=on tank/home |
또는 파일 시스템이 만들어질 때 해당 등록 정보를 설정합니다.
# zfs create -o mountpoint=/export/zfs -o sharenfs=on -o compression=on tank/home |
모든 ZFS 파일 시스템 정보 표시 – Solaris 10 8/07 릴리스에서 데이터 세트를 지정하지 않은 경우 다양한 형식으로 zfs get 명령을 사용하여 모든 데이터 세트에 대한 정보를 조회할 수 있습니다. 이전 릴리스에서는 zfs get 명령을 사용하여 일부 데이터 세트 정보를 검색할 수 없었습니다.
예를 들면 다음과 같습니다.
# zfs get -s local all tank/home atime off local tank/home/bonwick atime off local tank/home/marks quota 50G local |
새로운 zfs receive -F 옵션 – Solaris 10 8/07 릴리스에서 -zfs receive 명령에 새로 제공되는 F 옵션을 사용하여 수신 작업을 수행하기 전 가장 최신 스냅샷으로 파일 시스템을 강제 롤백할 수 있습니다. 롤백이 발생한 시간과 수신 작업이 시작된 시간 사이에 파일 시스템이 수정된 경우 이 옵션을 사용해야 할 수 있습니다.
재귀적 ZFS 스냅샷 – Solaris 10 11/06 릴리스에서 재귀적 스냅샷을 사용할 수 있습니다. zfs snapshot 명령을 사용하여 파일 시스템 스냅샷을 만들 경우 -r 옵션을 사용하여 모든 하위 파일 시스템의 스냅샷을 재귀적으로 만들 수 있습니다. 또한 - r 옵션을 사용하면 스냅샷 삭제 시 모든 하위 스냅샷도 재귀적으로 완전히 삭제됩니다.
이중 패리티 RAID-Z(raidz2) – Solaris 10 11/06 릴리스에서 복제된 RAID-Z 구성은 단일 패리티 또는 이중 패리티를 가질 수 있습니다. 이는 하나 또는 두 개의 장치 오류를 데이터 손실 없이 개별적으로 유지할 수 있다는 것을 의미합니다. 이중 패리티 RAID-Z 구성에 대한 raidz2 키워드를 지정할 수 있습니다. 또는 단일 패리티 RAID-Z 구성에 대한 raidz 또는 raidz1 키워드를 지정할 수도 있습니다.
ZFS 저장소 풀 장치 핫 스페어 – Solaris 10 11/06 릴리스에서 ZFS 핫 스페어 기능을 사용하면 하나 이상의 저장소 풀에서 오류나 고장이 발생한 장치를 교체하는 데 사용 가능한 디스크를 식별할 수 있습니다. 장치를 핫 스페어로 지정하면 풀의 활성 장치에 오류가 발생하더라도 핫 스페어가 자동으로 해당 장치를 대체합니다. 또는 수동으로 저장소 풀의 장치 대신 핫 스페어로 교체할 수도 있습니다.
ZFS 파일 시스템을 ZFS 복제로 대체(zfs promote) – Solaris 10 11/06 릴리스에서 zfs promote 명령을 사용하면 기존 ZFS 파일 시스템을 해당 파일 시스템의 복제로 대체할 수 있습니다. 이 기능은 대체 버전의 파일 시스템에서 테스트를 실행한 다음 해당 대체 버전의 파일 시스템을 활성 파일 시스템으로 만들려는 경우에 유용합니다.
ZFS 및 영역 개선 – Solaris 10 11/06 릴리스에서 ZFS와 영역 간의 상호 작용이 개선되었습니다. 영역이 설치된 Solaris 시스템에서 zoneadm clone 기능을 사용하여 기존 소스 ZFS zonepath의 데이터를 시스템의 대상 ZFS zonepath로 복사할 수 있습니다. 비전역 영역을 복제하는 데는 ZFS 복제 기능을 사용할 수 없으며 zoneadm clone 명령을 사용해야 합니다. 자세한 내용은 System Administration Guide: Solaris Containers-Resource Management and Solaris Zones를 참조하십시오.
ZFS 저장소 풀 업그레이드(zpool upgrade) – Solaris 10 6/06 릴리스부터 zpool upgrade 명령을 통해 저장소 풀을 최신 버전으로 업그레이드하여 최신 기능을 이용할 수 있습니다. 또한 zpool status 명령은 풀에서 이전 버전을 실행할 경우 이러한 사실을 사용자에게 알리도록 수정되었습니다.
장치 오류 지우기 – Solaris 10 6/06 릴리스부터 장치 또는 풀과 연관된 오류 수는 zpool clear 명령을 사용하여 지울 수 있습니다. 이전에는 zpool online 명령을 사용하여 풀의 장치를 온라인 상태로 만들 경우 오류 수가 지워졌습니다.
완전 삭제된 풀 복구 – Solaris 10 6/06 릴리스에서 zpool import - D 명령을 사용하면 이전에 zpool destroy 명령으로 완전히 삭제된 풀을 복구할 수 있습니다.
ZFS 백업 및 복원 명령 이름 변경됨 – Solaris 10 6/06 릴리스에서 zfs backup 및 zfs restore 명령의 이름이 기능을 좀 더 정확히 나타내기 위해 각각 zfs send 및 zfs receive로 변경되었습니다. 이 기능은 ZFS 데이터 스트림 표시를 저장 및 복구합니다.
Compact NFSv4 ACL 형식 - Solaris 10 6/06 릴리스부터 사용할 수 있는 NFSv4 ACL 형식에는 verbose, positional 및 compact가 있습니다. 새로운 compact 및 positional ACL 형식을 사용하여 ACL을 설정 및 표시할 수 있습니다. chmod 명령을 사용하여 세 개의 ACL 형식을 모두 설정할 수 있습니다. ls -V 명령을 사용하여 compact 및 positional ACL 형식을 표시합니다. ls -v 명령을 사용하여 verbose ACL 형식을 표시합니다.
장치를 임시로 오프라인 상태로 설정 - Solaris 10 6/06 릴리스부터 zpool offline -t 명령을 사용하여 일시적으로 장치를 오프라인 상태로 설정할 수 있습니다. 시스템을 재부트하면 장치는 자동으로 ONLINE 상태로 돌아갑니다.
ZFS와 Fault Manager 통합 - Solaris 10 6/06 릴리스부터 풀 장애 및 장치 장애를 진단하고 보고할 수 있는 ZFS 진단 엔진이 포함되었습니다. 풀 또는 장치 오류와 연관된 체크섬, I/O 및 장치 오류도 보고됩니다. 진단 오류 정보는 콘솔 및 /var/adm/messages 파일에 기록됩니다. 또한 zpool status 명령을 사용하여 보고된 오류에서 복구하는 작업에 대한 자세한 내용을 표시할 수 있습니다.
이러한 향상된 기능 및 변경 사항에 대한 자세한 내용은 Solaris ZFS Administration Guide를 참조하십시오.
관련된 ZFS 기능에 대한 내용은 새로운 기능을 소개하는 다음 단원을 참조하십시오.