탐색 링크 건너뛰기 | |
인쇄 보기 종료 | |
Oracle Solaris 10에서 Oracle Solaris 11로 전환 Oracle Solaris 11 Information Library (한국어) |
1. Oracle Solaris 10에서 Oracle Solaris 11로 전환(개요)
2. Oracle Solaris 11 설치 방법으로 전환
Oracle Solaris 11 파일 시스템 변경 사항
ZFS 파일 시스템으로 파일 시스템 데이터 마이그레이션
ZFS 파일 시스템으로 UFS 데이터 마이그레이션(ufsdump 및 ufsrestore)
Oracle Solaris 10 릴리스에서 사용할 수 없지만 Oracle Solaris 11에서 사용 가능한 ZFS 파일 시스템 기능은 다음과 같습니다.
파일 시스템 암호화 – ZFS 파일 시스템은 생성 시 암호화할 수 있습니다. 자세한 내용은 9 장보안 관리를 참조하십시오.
ZFS 파일 시스템 중복 제거 – 사용 중인 시스템 환경이 ZFS 데이터 중복 제거를 지원할 수 있는지 확인하는 것에 대한 중요한 정보는 ZFS 데이터 중복 제거 요구 사항을 참조하십시오.
ZFS 파일 시스템 공유 – NFS 및 SMB 파일 시스템 고유 변경 사항이 포함됩니다. 자세한 내용은 ZFS 파일 시스템 공유 변경 사항을 참조하십시오.
ZFS 매뉴얼 페이지 변경 – 핵심 ZFS 파일 시스템 기능이 zfs.1m 페이지에 남아 있도록 zfs.1m 매뉴얼 페이지가 수정되었지만, 위임된 관리, 암호화, 공유 구문 및 예제는 다음 페이지에서 설명합니다.
시스템이 설치된 후 ZFS 저장소 풀 및 ZFS 파일 시스템 정보를 검토하십시오.
zpool status 명령을 사용하여 ZFS 저장소 풀 정보를 표시합니다. 예를 들면 다음과 같습니다.
# zpool status pool: rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 c2t0d0s0 ONLINE 0 0 0 errors: No known data errors
zfs list 명령을 사용하여 ZFS 파일 시스템 정보를 표시합니다. 예를 들면 다음과 같습니다.
# zfs list -r rpool NAME USED AVAIL REFER MOUNTPOINT NAME USED AVAIL REFER MOUNTPOINT rpool 5.39G 67.5G 74.5K /rpool rpool/ROOT 3.35G 67.5G 31K legacy rpool/ROOT/solaris 3.35G 67.5G 3.06G / rpool/ROOT/solaris/var 283M 67.5G 214M /var rpool/dump 1.01G 67.5G 1000M - rpool/export 97.5K 67.5G 32K /rpool/export rpool/export/home 65.5K 67.5G 32K /rpool/export/home rpool/export/home/admin 33.5K 67.5G 33.5K /rpool/export/home/admin rpool/swap 1.03G 67.5G 1.00G -
루트 풀 구성 요소에 대한 설명은 설치 후 초기 ZFS BE 검토를 참조하십시오.
zpool list 및 zfs list 명령은 사용 가능한 풀과 파일 시스템 공간을 확인하는 데 있어 이전 df 및 du 명령보다 낫습니다. 레거시 명령을 사용하면 풀 공간과 파일 시스템 공간을 쉽게 구별할 수 없으며, 종속 파일 시스템이나 스냅샷에서 사용하는 공간을 확인할 수도 없습니다.
예를 들어 다음 루트 풀(rpool)에는 5.46GB가 할당되었으며 68.5GB가 사용 가능합니다.
# zpool list rpool NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT rpool 74G 5.46G 68.5G 7% 1.00x ONLINE -
개별 파일 시스템의 USED 열을 검토하여 풀 공간 회계를 파일 시스템 공간 회계와 비교하면 풀 공간이 고려되었음을 확인할 수 있습니다. 예를 들면 다음과 같습니다.
# zfs list -r rpool NAME USED AVAIL REFER MOUNTPOINT rpool 5.41G 67.4G 74.5K /rpool rpool/ROOT 3.37G 67.4G 31K legacy rpool/ROOT/solaris 3.37G 67.4G 3.07G / rpool/ROOT/solaris/var 302M 67.4G 214M /var rpool/dump 1.01G 67.5G 1000M - rpool/export 97.5K 67.4G 32K /rpool/export rpool/export/home 65.5K 67.4G 32K /rpool/export/home rpool/export/home/admin 33.5K 67.4G 33.5K /rpool/export/home/admin rpool/swap 1.03G 67.5G 1.00G -
zpool list 명령이 보고하는 SIZE 값은 일반적으로 풀의 물리적 디스크 공간의 양이지만 풀의 중복성 레벨에 따라 달라집니다. 다음 예제를 참조하십시오. zfs list 명령은 파일 시스템에서 사용 가능한 공간을 나열하는데, 이는 디스크 공간에서 ZFS 풀 중복성 메타 데이터 오버헤드(있는 경우)를 뺀 값입니다.
중복되지 않은 저장소 풀 – 한 개의 136GB 디스크로 생성되며, zpool list 명령이 SIZE 및 초기 FREE 값을 136GB로 보고합니다. zfs list 명령이 보고하는 초기 AVAIL 공간은 풀 메타 데이터 오버헤드의 양이 작기 때문에 134GB입니다. 예를 들면 다음과 같습니다.
# zpool create tank c0t6d0 # zpool list tank NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT tank 136G 95.5K 136G 0% 1.00x ONLINE - # zfs list tank NAME USED AVAIL REFER MOUNTPOINT tank 72K 134G 21K /tank
미러링된 저장소 풀 – 두 개의 136GB 디스크로 생성되며, zpool list 명령이 SIZE 및 초기 FREE 값을 136GB로 보고합니다. 이 보고를 압축 공간 값이라고 합니다. zfs list 명령이 보고하는 초기 AVAIL 공간은 풀 메타 데이터 오버헤드의 양이 작기 때문에 134GB입니다. 예를 들면 다음과 같습니다.
# zpool create tank mirror c0t6d0 c0t7d0 # zpool list tank NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT tank 136G 95.5K 136G 0% 1.00x ONLINE - # zfs list tank NAME USED AVAIL REFER MOUNTPOINT tank 72K 134G 21K /tank
RAID-Z 저장소 풀 – 세 개의 136GB 디스크로 생성되며, zpool list 명령이 SIZE 및 초기 FREE 값을 408GB로 보고합니다. 이 보고를 압축 공간 값이라고 하는데, 여기에는 중복성 오버헤드(예: 패리티 정보)가 포함됩니다. zfs list 명령이 보고하는 초기 AVAIL 공간은 풀 중복성 오버헤드로 인해 133GB입니다. 다음 예는 RAIDZ-2 풀을 만듭니다.
# zpool create tank raidz2 c0t6d0 c0t7d0 c0t8d0 # zpool list tank NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT tank 408G 286K 408G 0% 1.00x ONLINE - # zfs list tank NAME USED AVAIL REFER MOUNTPOINT tank 73.2K 133G 20.9K /tank
ZFS 파일 시스템을 사용 가능하게 설정하는 것은 다음과 같은 방식에서 Oracle Solaris 10 릴리스와 비슷합니다.
ZFS 파일 시스템이 만들어지면 자동으로 마운트되며 시스템이 부트되면 자동으로 다시 마운트됩니다.
ZFS 파일 시스템에 대해 레거시 마운트를 만들지 않을 경우 ZFS 파일 시스템을 마운트하기 위해 /etc/vfstab 파일을 수정할 필요가 없습니다. 레거시 마운트를 사용할 경우 ZFS 파일 시스템을 자동으로 마운트하는 것이 좋습니다.
파일 시스템을 공유하기 위해 /etc/dfs/dfstab 파일을 수정할 필요가 없습니다. ZFS 파일 시스템 공유에 대한 자세한 내용은 ZFS 파일 시스템 공유 변경 사항을 참조하십시오.
UFS 루트와 마찬가지로, 스왑 장치의 경우 /etc/vfstab 파일에 항목이 있어야 합니다.
NFS 공유를 사용하여 Oracle Solaris 10과 Oracle Solaris 11 시스템 간에 파일 시스템을 공유할 수 있습니다.
NFS 또는 SMB 공유를 사용하여 Oracle Solaris 11 시스템 간에 파일 시스템을 공유할 수 있습니다.
ZFS 저장소 풀을 Oracle Solaris 10 시스템에서 내보낸 다음 Oracle Solaris 11 시스템에서 가져올 수 있습니다.
Oracle Solaris 10에서는 sharenfs 또는 sharesmb 등록 정보를 설정하여 ZFS 파일 시스템 공유를 만들고 게시하거나 레거시 share 명령을 사용할 수 있었습니다.
이 Solaris 릴리스에서는 다음과 같이 ZFS 파일 시스템 공유를 만들어 게시합니다.
zfs set share 명령을 사용하여 ZFS 파일 시스템의 NFS 또는 SMB 공유를 만듭니다. 예를 들면 다음과 같습니다.
# zfs create rpool/fs1 # zfs set share=name=fs1,path=/rpool/fs1,prot=nfs rpool/fs1 name=fs1,path=/rpool/fs1,prot=nfs
sharenfs 또는 sharesmb 등록 정보를 on으로 설정하여 NFS 또는 SMB 공유를 게시합니다. 예를 들면 다음과 같습니다.
# zfs set sharenfs=on rpool/fs1 # cat /etc/dfs/sharetab /rpool/fs1 fs1 nfs sec=sys,rw
새로운 공유의 주요한 차이점은 다음과 같습니다.
zfs set share 명령이 ZFS 파일 시스템 공유를 위한 sharemgr 인터페이스 대신 사용됩니다.
sharemgr 인터페이스는 더 이상 사용할 수 없습니다. 레거시 share 및 sharenfs 등록 정보는 계속 사용할 수 있습니다. 다음 예제를 참조하십시오.
/etc/dfs/dfstab 파일은 여전히 존재하지만 수정 사항은 무시됩니다. SMF는 ZFS 마운트 및 공유 정보가 관리되는 방식과 유사하게, 시스템이 재부트될 때 파일이 시스템이 자동으로 공유되도록 ZFS 또는 UFS 공유 정보를 관리합니다.
share -a 명령을 사용하여 공유되는 파일 시스템 공유는 보존됩니다.
종속 파일 시스템이 공유 등록 정보를 상속하지 않습니다. 상속된 sharenfs 등록 정보를 on으로 설정하여 종속 파일 시스템을 만든 경우 새 종속 파일 시스템에 대한 공유가 만들어집니다.
레거시 공유 구문은 /etc/dfs/dfstab 파일을 수정할 필요 없이 계속 지원됩니다. 레거시 공유는 SMF 서비스를 통해 관리됩니다.
파일 시스템을 공유하려면 share 명령을 사용합니다.
예를 들어 ZFS 파일 시스템을 공유하려면 다음 구문을 사용합니다.
# share -F nfs /tank/zfsfs # cat /etc/dfs/sharetab /tank/zfsfs - nfs rw
위 구문은 UFS 파일 시스템 공유 구문과 동일합니다.
# share -F nfs /ufsfs # cat /etc/dfs/sharetab /ufsfs - nfs rw /tank/zfsfs - nfs rw
이전 릴리스에서와 마찬가지로, sharenfs 등록 정보를 사용으로 설정한 상태에서 파일 시스템을 만들 수 있습니다. Oracle Solaris 11에서는 파일 시스템에 대해 기본 공유를 만듭니다.
# zfs create -o sharenfs=on rpool/data # cat /etc/dfs/sharetab /rpool/data rpool_data nfs sec=sys,rw
위 파일 시스템 공유는 즉시 게시됩니다.
이 절에서는 공유 전환 문제를 검토합니다.
시스템 업그레이드 – 이 릴리스에서 등록 정보 변경으로 인해 이전 BE로 다시 부트할 경우 ZFS 공유가 잘못될 수 있습니다. 비ZFS 공유는 영향을 받지 않습니다. 이전 BE로 다시 부트하려는 경우 ZFS 데이터 세트에서 공유 구성을 복원할 수 있도록 pkg update 작업을 수행하기 전에 기존 공유 구성의 복사본을 저장합니다.
이전 BE에서 sharemgr show -vp 명령을 사용하여 공유 및 해당 구성을 모두 나열합니다.
zfs get sharenfs filesystem 명령 및 zfs sharesmb filesystem 명령을 사용하여 공유 등록 정보의 값을 가져옵니다.
이전 BE로 다시 부트하는 경우 sharenfs 및 sharesmb 등록 정보를 원래 값으로 재설정합니다.
레거시 공유 해제 동작 – unshare -a 명령 또는 unshareall 명령을 사용하면 공유가 게시 해제되지만, SMF 공유 저장소가 업데이트되지는 않습니다. 따라서 기존 공유를 다시 공유하려고 하면 공유 저장소가 충돌하는지 검사하여 오류가 표시됩니다.
Oracle Solaris 11에서는 중복 제거(dedup) 등록 정보를 사용하여 중복된 데이터를 ZFS 파일 시스템에서 제거할 수 있습니다. 파일 시스템의 dedup 등록 정보가 사용으로 설정된 경우 중복 데이터 블록이 동기적으로 제거됩니다. 그 결과, 고유한 데이터만 저장되고 공통 구성 요소는 파일 간에 공유됩니다. 예를 들면 다음과 같습니다.
# zfs set dedup=on tank/home
다음 단계를 수행하여 시스템이 데이터 중복 제거를 지원할 수 있는지 확인될 때까지는 운용 시스템이 있는 파일 시스템에서 dedup 등록 정보를 사용으로 설정하지 마십시오.
중복 제거를 통해 공간 절약이 가능한 데이터인지 확인합니다. 중복 제거가 불가능한 데이터일 경우에는 중복 제거를 사용으로 설정할 필요가 없습니다. 다음 명령을 실행하는 데는 많은 메모리가 소비됩니다.
# zdb -S tank Simulated DDT histogram: bucket allocated referenced ______ ______________________________ ______________________________ refcnt blocks LSIZE PSIZE DSIZE blocks LSIZE PSIZE DSIZE ------ ------ ----- ----- ----- ------ ----- ----- ----- 1 2.27M 239G 188G 194G 2.27M 239G 188G 194G 2 327K 34.3G 27.8G 28.1G 698K 73.3G 59.2G 59.9G 4 30.1K 2.91G 2.10G 2.11G 152K 14.9G 10.6G 10.6G 8 7.73K 691M 529M 529M 74.5K 6.25G 4.79G 4.80G 16 673 43.7M 25.8M 25.9M 13.1K 822M 492M 494M 32 197 12.3M 7.02M 7.03M 7.66K 480M 269M 270M 64 47 1.27M 626K 626K 3.86K 103M 51.2M 51.2M 128 22 908K 250K 251K 3.71K 150M 40.3M 40.3M 256 7 302K 48K 53.7K 2.27K 88.6M 17.3M 19.5M 512 4 131K 7.50K 7.75K 2.74K 102M 5.62M 5.79M 2K 1 2K 2K 2K 3.23K 6.47M 6.47M 6.47M 8K 1 128K 5K 5K 13.9K 1.74G 69.5M 69.5M Total 2.63M 277G 218G 225G 3.22M 337G 263G 270G dedup = 1.20, compress = 1.28, copies = 1.03, dedup * compress / copies = 1.50
예상 중복 제거 비율이 2보다 클 경우 중복 제거를 통한 공간 절약 효과가 있습니다.
이 예의 경우 중복 제거 비율(dedup = 1.20)이 2보다 작으므로 중복 제거를 사용으로 설정하지 않는 것이 좋습니다.
시스템 메모리가 중복 제거를 지원할 정도로 충분한지 확인합니다.
각 코어 내부의 중복 제거 테이블 항목은 약 320바이트입니다.
할당된 블록 수에 320을 곱합니다. 예를 들면 다음과 같습니다.
in-core DDT size = 2.63M x 320 = 841.60M
중복 제거 테이블이 메모리에 적합할 때 중복 제거 성능이 가장 좋습니다. 중복 제거 테이블을 디스크에 기록해야 할 경우 성능이 저하됩니다. 메모리 리소스가 부족한 상태로 파일 시스템에서 중복 제거를 사용으로 설정하면 파일 시스템과 관련된 작업을 수행할 때 시스템 성능이 저하될 수 있습니다. 예를 들어, 메모리 리소스가 부족한 상태로 중복 제거가 사용으로 설정된 큰 파일 시스템을 제거하면 시스템 성능이 저하될 수 있습니다.