JavaScript is required to for searching.
탐색 링크 건너뛰기
인쇄 보기 종료
Oracle Solaris 10에서 Oracle Solaris 11로 전환     Oracle Solaris 11 Information Library (한국어)
search filter icon
search icon

문서 정보

머리말

1.  Oracle Solaris 10에서 Oracle Solaris 11로 전환(개요)

2.  Oracle Solaris 11 설치 방법으로 전환

3.  장치 관리

4.  저장소 관리 기능

5.  파일 시스템 관리

Oracle Solaris 11 파일 시스템 변경 사항

루트 파일 시스템 및 변경 사항

ZFS 파일 시스템 변경 사항 관리

ZFS 파일 시스템 정보 표시

ZFS 파일 시스템 공간 보고 문제 해결

ZFS 저장소 풀 공간 보고 문제 해결

ZFS 파일 시스템을 사용 가능하게 설정

ZFS 파일 시스템 공유 변경 사항

레거시 ZFS 공유 구문

ZFS 공유 마이그레이션/전환 문제

ZFS 데이터 중복 제거 요구 사항

ZFS 백업 기능 고려

ZFS 파일 시스템으로 파일 시스템 데이터 마이그레이션

권장되는 데이터 마이그레이션 방법

ZFS 섀도우 마이그레이션으로 데이터 마이그레이션

ZFS 파일 시스템으로 UFS 데이터 마이그레이션(ufsdumpufsrestore)

6.  소프트웨어 관리

7.  네트워크 구성 관리

8.  시스템 구성 관리

9.  보안 관리

10.  가상 환경에서 Oracle Solaris 릴리스 관리

11.  사용자 계정 관리 및 사용자 환경 변경 사항

12.  Oracle Solaris 데스크탑 기능 사용

A.  이전 Oracle Solaris 11 릴리스에서 Oracle Solaris 11로 전환

ZFS 파일 시스템 변경 사항 관리

Oracle Solaris 10 릴리스에서 사용할 수 없지만 Oracle Solaris 11에서 사용 가능한 ZFS 파일 시스템 기능은 다음과 같습니다.

ZFS 파일 시스템 정보 표시

시스템이 설치된 후 ZFS 저장소 풀 및 ZFS 파일 시스템 정보를 검토하십시오.

zpool status 명령을 사용하여 ZFS 저장소 풀 정보를 표시합니다. 예를 들면 다음과 같습니다.

# zpool status
  pool: rpool
 state: ONLINE
  scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        rpool       ONLINE       0     0     0
          c2t0d0s0  ONLINE       0     0     0

errors: No known data errors

zfs list 명령을 사용하여 ZFS 파일 시스템 정보를 표시합니다. 예를 들면 다음과 같습니다.

# zfs list -r rpool
NAME                      USED  AVAIL  REFER  MOUNTPOINT
NAME                      USED  AVAIL  REFER  MOUNTPOINT
rpool                    5.39G  67.5G  74.5K  /rpool
rpool/ROOT               3.35G  67.5G    31K  legacy
rpool/ROOT/solaris       3.35G  67.5G  3.06G  /
rpool/ROOT/solaris/var    283M  67.5G   214M  /var
rpool/dump               1.01G  67.5G  1000M  -
rpool/export             97.5K  67.5G    32K  /rpool/export
rpool/export/home        65.5K  67.5G    32K  /rpool/export/home
rpool/export/home/admin  33.5K  67.5G  33.5K  /rpool/export/home/admin
rpool/swap               1.03G  67.5G  1.00G  -

루트 풀 구성 요소에 대한 설명은 설치 후 초기 ZFS BE 검토를 참조하십시오.

ZFS 파일 시스템 공간 보고 문제 해결

zpool listzfs list 명령은 사용 가능한 풀과 파일 시스템 공간을 확인하는 데 있어 이전 dfdu 명령보다 낫습니다. 레거시 명령을 사용하면 풀 공간과 파일 시스템 공간을 쉽게 구별할 수 없으며, 종속 파일 시스템이나 스냅샷에서 사용하는 공간을 확인할 수도 없습니다.

예를 들어 다음 루트 풀(rpool)에는 5.46GB가 할당되었으며 68.5GB가 사용 가능합니다.

# zpool list rpool
NAME   SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
rpool   74G  5.46G  68.5G   7%  1.00x  ONLINE  -

개별 파일 시스템의 USED 열을 검토하여 풀 공간 회계를 파일 시스템 공간 회계와 비교하면 풀 공간이 고려되었음을 확인할 수 있습니다. 예를 들면 다음과 같습니다.

# zfs list -r rpool
NAME                      USED  AVAIL  REFER  MOUNTPOINT
rpool                    5.41G  67.4G  74.5K  /rpool
rpool/ROOT               3.37G  67.4G    31K  legacy
rpool/ROOT/solaris       3.37G  67.4G  3.07G  /
rpool/ROOT/solaris/var    302M  67.4G   214M  /var
rpool/dump               1.01G  67.5G  1000M  -
rpool/export             97.5K  67.4G    32K  /rpool/export
rpool/export/home        65.5K  67.4G    32K  /rpool/export/home
rpool/export/home/admin  33.5K  67.4G  33.5K  /rpool/export/home/admin
rpool/swap               1.03G  67.5G  1.00G  -

ZFS 저장소 풀 공간 보고 문제 해결

zpool list 명령이 보고하는 SIZE 값은 일반적으로 풀의 물리적 디스크 공간의 양이지만 풀의 중복성 레벨에 따라 달라집니다. 다음 예제를 참조하십시오. zfs list 명령은 파일 시스템에서 사용 가능한 공간을 나열하는데, 이는 디스크 공간에서 ZFS 풀 중복성 메타 데이터 오버헤드(있는 경우)를 뺀 값입니다.

ZFS 파일 시스템을 사용 가능하게 설정

ZFS 파일 시스템을 사용 가능하게 설정하는 것은 다음과 같은 방식에서 Oracle Solaris 10 릴리스와 비슷합니다.

ZFS 파일 시스템 공유 변경 사항

Oracle Solaris 10에서는 sharenfs 또는 sharesmb 등록 정보를 설정하여 ZFS 파일 시스템 공유를 만들고 게시하거나 레거시 share 명령을 사용할 수 있었습니다.

이 Solaris 릴리스에서는 다음과 같이 ZFS 파일 시스템 공유를 만들어 게시합니다.

새로운 공유의 주요한 차이점은 다음과 같습니다.

레거시 ZFS 공유 구문

레거시 공유 구문은 /etc/dfs/dfstab 파일을 수정할 필요 없이 계속 지원됩니다. 레거시 공유는 SMF 서비스를 통해 관리됩니다.

  1. 파일 시스템을 공유하려면 share 명령을 사용합니다.

    예를 들어 ZFS 파일 시스템을 공유하려면 다음 구문을 사용합니다.

    # share -F nfs /tank/zfsfs
    # cat /etc/dfs/sharetab
    /tank/zfsfs        -       nfs     rw

    위 구문은 UFS 파일 시스템 공유 구문과 동일합니다.

    # share -F nfs /ufsfs
    # cat /etc/dfs/sharetab
    /ufsfs  -       nfs     rw      
    /tank/zfsfs     -       nfs     rw      
  2. 이전 릴리스에서와 마찬가지로, sharenfs 등록 정보를 사용으로 설정한 상태에서 파일 시스템을 만들 수 있습니다. Oracle Solaris 11에서는 파일 시스템에 대해 기본 공유를 만듭니다.

    # zfs create -o sharenfs=on rpool/data
    # cat /etc/dfs/sharetab
    /rpool/data     rpool_data      nfs     sec=sys,rw

위 파일 시스템 공유는 즉시 게시됩니다.

ZFS 공유 마이그레이션/전환 문제

이 절에서는 공유 전환 문제를 검토합니다.

ZFS 데이터 중복 제거 요구 사항

Oracle Solaris 11에서는 중복 제거(dedup) 등록 정보를 사용하여 중복된 데이터를 ZFS 파일 시스템에서 제거할 수 있습니다. 파일 시스템의 dedup 등록 정보가 사용으로 설정된 경우 중복 데이터 블록이 동기적으로 제거됩니다. 그 결과, 고유한 데이터만 저장되고 공통 구성 요소는 파일 간에 공유됩니다. 예를 들면 다음과 같습니다.

# zfs set dedup=on tank/home

다음 단계를 수행하여 시스템이 데이터 중복 제거를 지원할 수 있는지 확인될 때까지는 운용 시스템이 있는 파일 시스템에서 dedup 등록 정보를 사용으로 설정하지 마십시오.

  1. 중복 제거를 통해 공간 절약이 가능한 데이터인지 확인합니다. 중복 제거가 불가능한 데이터일 경우에는 중복 제거를 사용으로 설정할 필요가 없습니다. 다음 명령을 실행하는 데는 많은 메모리가 소비됩니다.

    # zdb -S tank
    Simulated DDT histogram:
    bucket              allocated                       referenced          
    ______   ______________________________   ______________________________
    refcnt   blocks   LSIZE   PSIZE   DSIZE   blocks   LSIZE   PSIZE   DSIZE
    ------   ------   -----   -----   -----   ------   -----   -----   -----
         1    2.27M    239G    188G    194G    2.27M    239G    188G    194G
         2     327K   34.3G   27.8G   28.1G     698K   73.3G   59.2G   59.9G
         4    30.1K   2.91G   2.10G   2.11G     152K   14.9G   10.6G   10.6G
         8    7.73K    691M    529M    529M    74.5K   6.25G   4.79G   4.80G
        16      673   43.7M   25.8M   25.9M    13.1K    822M    492M    494M
        32      197   12.3M   7.02M   7.03M    7.66K    480M    269M    270M
        64       47   1.27M    626K    626K    3.86K    103M   51.2M   51.2M
       128       22    908K    250K    251K    3.71K    150M   40.3M   40.3M
       256        7    302K     48K   53.7K    2.27K   88.6M   17.3M   19.5M
       512        4    131K   7.50K   7.75K    2.74K    102M   5.62M   5.79M
        2K        1      2K      2K      2K    3.23K   6.47M   6.47M   6.47M
        8K        1    128K      5K      5K    13.9K   1.74G   69.5M   69.5M
     Total    2.63M    277G    218G    225G    3.22M    337G    263G    270G
    
    dedup = 1.20, compress = 1.28, copies = 1.03, dedup * compress / copies = 1.50

    예상 중복 제거 비율이 2보다 클 경우 중복 제거를 통한 공간 절약 효과가 있습니다.

    이 예의 경우 중복 제거 비율(dedup = 1.20)이 2보다 작으므로 중복 제거를 사용으로 설정하지 않는 것이 좋습니다.

  2. 시스템 메모리가 중복 제거를 지원할 정도로 충분한지 확인합니다.

    • 각 코어 내부의 중복 제거 테이블 항목은 약 320바이트입니다.

    • 할당된 블록 수에 320을 곱합니다. 예를 들면 다음과 같습니다.

      in-core DDT size = 2.63M x 320 = 841.60M
  3. 중복 제거 테이블이 메모리에 적합할 때 중복 제거 성능이 가장 좋습니다. 중복 제거 테이블을 디스크에 기록해야 할 경우 성능이 저하됩니다. 메모리 리소스가 부족한 상태로 파일 시스템에서 중복 제거를 사용으로 설정하면 파일 시스템과 관련된 작업을 수행할 때 시스템 성능이 저하될 수 있습니다. 예를 들어, 메모리 리소스가 부족한 상태로 중복 제거가 사용으로 설정된 큰 파일 시스템을 제거하면 시스템 성능이 저하될 수 있습니다.