Go to main content

Oracle® Solaris 11.4의 새로운 기능

인쇄 보기 종료

업데이트 날짜: 2018년 8월
 
 

데이터 관리 기능

이 절에서는 이 릴리스에서 새롭게 제공되는 데이터 관리 기능에 대해 설명합니다. 이러한 기능을 통해 향후 성장을 위한 무제한 용량으로 설계를 확장할 수 있으며 향상된 데이터 무결성도 제공합니다.

또한 신뢰할 수 있는 경로에서 실행하여 변경할 수 없는 영역 구성을 참조하십시오.

ZFS 최상위 레벨 장치 제거

zpool remove 명령을 사용하면 최상위 레벨 데이터 장치를 제거할 수 있습니다. 최상위 레벨 데이터 장치를 제거하면 제거할 장치의 데이터가 풀에 있는 남은 데이터 장치로 마이그레이션됩니다. zpool status 명령은 리실버링이 완료될 때까지 제거 작업 진행 상태를 보고합니다.

최상위 레벨 데이터 장치 제거에 대한 자세한 내용은 Oracle Solaris ZFS Device Removal, Managing ZFS File Systems in Oracle Solaris 11.4 의 Removing Devices From a Storage Poolzpool(8) 매뉴얼 페이지를 참조하십시오.

ZFS 일정이 잡힌 스크럽

기본적으로 ZFS 풀 스크럽은 자동으로 조정된 우선순위에 따라 30일 간격으로 백그라운드에서 실행됩니다. 스크럽 우선순위는 기본적으로 낮지만, 시스템이 유휴 상태일 경우 자동으로 증가합니다. 스크럽 우선순위는 지정된 스크럽 간격, 진행 상태 및 시스템 부하를 기준으로 조정됩니다. 마지막으로 성공한 스크럽의 시작 시간은 zpool status 명령으로 보고됩니다.

풀 스크럽 일정(사용 안함으로 설정 포함)은 scrubinterval 등록 정보를 설정하여 사용자정의할 수 있습니다. Managing ZFS File Systems in Oracle Solaris 11.4 의 Scheduled Data Scrubbingzpool(8) 매뉴얼 페이지에서 scrubintervallastscrub 등록 정보에 대한 자세한 내용을 참조하십시오.

고속 ZFS 기반 파일 복사

reflink()reflinkat() 함수를 사용하면 기본 ZFS 기술을 사용해서 매우 빠르게 파일을 복사할 수 있습니다. reflink() 함수는 기본 데이터 블록을 읽거나 쓰지 않고 기존 파일의 내용으로 새 파일을 만듭니다. 기존 파일 및 만들려는 파일은 동일한 ZFS 풀에 있어야 합니다.

자세한 내용은 reflink(3C) 매뉴얼 페이지를 참조하십시오.

cp 명령의 –z 옵션(고속 복사)에는 reflink가 사용됩니다. cp(1) 매뉴얼 페이지를 참조하십시오.

ZFS 원시 전송 스트림

Oracle Solaris 11.4에서는 원시 ZFS send 스트림을 사용하여 압축된 파일 시스템의 ZFS send 스트림 전송을 최적화하고 네트워크 전송 트래픽을 줄일 수 있습니다.

이전 릴리스에서는 압축된 ZFS 파일 시스템의 send 스트림이 전송 시 먼저 압축 해제되고, 수신 측에서 압축이 사용으로 설정된 경우 블록이 다시 압축되었습니다. Oracle Solaris 11.4 릴리스에서는 스트림에서 압축된 파일 시스템 블록이 압축된 상태로 유지되기 때문에 이러한 두 단계가 삭제되었습니다. 이러한 최적화 기술은 네트워크 전송 트래픽도 줄여줍니다. 새로운 zfs send –w 옵션을 사용하여 원시 모드로 전송하여 ZFS send 스트림을 최적화할 수 있습니다. 이 옵션을 사용으로 설정하면 send 스트림이 원시 블록의 존재를 인코딩할 수 있으므로, 수신 시스템이 이를 압축하지 않아도 원시 블록 처리 방법을 알 수 있습니다.

예를 들어 압축이 사용으로 설정된 ZFS 파일 시스템을 만들고 –w 옵션을 사용한 상태 및 사용하지 않은 상태로 스냅샷 스트림을 전송한 후 결과 스트림 크기를 확인합니다.

# zfs create compression=on pond/cdata
# cp -r somefiles /pond/data
# zfs snapshot pond/cdata@snap1
# zfs get compressratio pond/cdata@snap1
NAME              PROPERTY       VALUE  SOURCE
pond/cdata@snap1  compressratio  1.79x  -

# zfs send pond/cdata@snap1 > /tmp/stream
# zfs send -w compress pond/cdata@snap1 > /tmp/cstream
# ls -lh /tmp/*stream*
-rw-r--r--   1 root     root        126M Feb 15 14:35 /tmp/cstream
-rw-r--r--   1 root     root        219M Feb 15 14:35 /tmp/stream

이전 버전의 Oracle Solaris를 실행하는 시스템은 이러한 스트림을 수신할 수 없으므로, 오류 메시지가 생성됩니다.

자세한 내용은 Oracle Solaris 12에서 ZFS 파일 시스템 관리를 참조하십시오.

다시 시작할 수 있는 ZFS 전송 스트림

Oracle Solaris 11.4에서 네트워크 전송이 중단되거나 오류가 발생하면 중단된 지점에서 ZFS send 스트림을 다시 시작할 수 있습니다.

시스템 간에 ZFS 스냅샷을 전송하기 위해 ZFS sendreceive를 사용하면 ZFS 파일 시스템 데이터를 편리하게 복제할 수 있으며, 다음과 같은 이전의 문제를 방지할 수 있습니다.

  • ZFS 전송 작업을 완료하는 데 몇 시간 또는 며칠까지 걸릴 수 있었습니다. 이 시간 동안 send 작업은 네트워크 중단 또는 시스템 오류로 인해 중단될 수 있었습니다.

  • send 작업이 완료되지 못한 경우에는 거의 완료되었더라도 처음부터 다시 시작해야 합니다.

  • ZFS send 작업이 중단 지점 간에 큰 스트림을 전송할 수 없었습니다.

  • 전체 스트림이 처리될 때까지는 ZFS recv 작업이 전송 오류를 감지하고 이를 보고할 수 없었습니다.

이 Oracle Solaris 11.4 릴리스에서는 다음과 같은 새로운 옵션을 사용해서 중단된 지점에서 ZFS 전송 스트림을 다시 시작할 수 있는 방법을 제공합니다.

  • zfs receive –Cstdout에 수신 체크포인트를 기록합니다.

  • zfs send –Cstdin에서 수신 체크포인트를 읽습니다.

  • zfs send –s (nocheck) – 새로운 전송 중 형식을 사용 안함으로 설정합니다.

  • zfs list –I (state) – 완료되지 않은 데이터 세트가 기본적으로 표시되지 않으므로, 완료되지 않은 데이터세트를 반복해서 표시합니다.

자세한 내용은 Oracle Solaris 12에서 ZFS 파일 시스템 관리를 참조하십시오.

구성 가능한 ZFS 읽기 및 쓰기 처리량 제한

Oracle Solaris 11.4 릴리스는 ZFS 파일 시스템의 디스크 읽기 및 쓰기를 제한할 수 있는 기능을 제공합니다. readlimitwritelimit 등록 정보를 초당 바이트 수 단위로 설정하여 ZFS 파일 시스템에서 read 또는 write 제한을 사용으로 설정할 수 있습니다. 이러한 기능을 사용하면 다중 테넌트 환경에서 ZFS I/O 리소스를 최적화할 수 있습니다.

여러 ZFS 파일 시스템의 관리 성능 향상을 위해 defaultwritelimitdefaultreadlimit 등록 정보가 추가되었습니다. defaultwritelimitdefaultreadlimit 등록 정보가 설정된 경우 모든 파일 시스템 종속 요소가 지정된 값을 상속합니다. 기본 read 또는 write 제한을 ZFS 파일 시스템에 적용하면, 파일 시스템 자체가 아니라 종속 파일 시스템에만 적용됩니다. 추가된 읽기 전용 effectivereadlimiteffectivewritelimit 등록 정보를 사용하면 파일 시스템에 적용된 제한을 확인할 수 있습니다. 보고되는 유효 제한은 상위 항목 및 표시된 파일 시스템 사이의 모든 지점에서 가장 낮은 데이터 제한입니다.

예를 들어 readwrite 제한을 다음과 같이 설정할 수 있습니다.

# zfs set writelimit=500mb pond/apps/web
# zfs set readlimit=200mb pond/apps/logdata

다음 예에서는 readwrite 제한을 표시하는 방법을 보여줍니다.

# zfs get -r writelimit,readlimit pond/apps
NAME                 PROPERTY    VALUE    SOURCE
pond/apps            writelimit  default  default
pond/apps            readlimit   default  default
pond/apps/logdata    writelimit  default  default
pond/apps/logdata    readlimit   200M     local
pond/apps/web        writelimit  500M     local
pond/apps/web        readlimit   default  default
pond/apps/web/tier1  writelimit  default  default
pond/apps/web/tier1  readlimit   default  default

유효 쓰기 제한을 다음과 같이 표시할 수 있습니다.

# zfs get effectivewritelimit pond/apps/web
NAME           PROPERTY             VALUE  SOURCE
pond/apps/web  effectivewritelimit  500M   local

자세한 내용은 Oracle Solaris 12에서 ZFS 파일 시스템 관리를 참조하십시오.

ZFS 섀도우 마이그레이션 모니터링 및 관리

Oracle Solaris 11.4 릴리스는 마이그레이션 오류 모니터링 및 진행 중인 마이그레이션 제어에서 더 향상된 가시성을 위한 개선 기능이 포함된 향상된 ZFS 섀도우 마이그레이션 작업 기능을 제공합니다. 다음과 같은 새로운 기능이 도입되었습니다.

  • shadowstat –E–e – 모든 마이그레이션 또는 단일 마이그레이션의 마이그레이션 오류 모니터링을 위해 제공됩니다.

  • shadowadm – 진행 중인 마이그레이션을 제어합니다.

예를 들어 여러 마이그레이션 작업에서 섀도우 마이그레이션 오류를 식별할 수 있습니다.

# shadowstat
                                        EST             
                                BYTES   BYTES           ELAPSED
DATASET                         XFRD    LEFT    ERRORS  TIME
tank/logarchive                 16.4M   195M    1       00:01:20
pond/dbarchive                  4.49M   248M    -       00:00:51
tank/logarchive                 16.6M   194M    1       00:01:21
pond/dbarchive                  4.66M   248M    -       00:00:52
tank/logarchive                 16.7M   194M    1       00:01:22
pond/dbarchive                  4.80M   248M    -       00:00:53
tank/logarchive                 17.1M   194M    1       00:01:23
pond/dbarchive                  5.00M   248M    -       00:00:54
tank/logarchive                 17.3M   194M    1       00:01:24
pond/dbarchive                  5.16M   247M    -       00:00:55

다음과 같이 특정 마이그레이션 오류를 식별할 수 있습니다.

# shadowstat -E
tank/logarchive:
PATH                                            ERROR
e-dir/socket                                    Operation not supported
pond/dbarchive:
No errors encountered.

예를 들어 열린 소켓을 마이그레이션할 수 없을 때 마이그레이션을 취소하려면 다음을 수행합니다.

# shadowadm cancel tank/logarchive

자세한 내용은 Oracle Solaris 12에서 ZFS 파일 시스템 관리를 참조하십시오.

ZFS ACL 상속성 보존

Oracle Solaris 11.4에서 새로운 ZFS ACL 기능은 NFS 및 SMB(서버 메시지 블록) 프로토콜을 통해 ZFS 파일 시스템을 공유할 때 더 나은 환경을 제공할 수 있게 해줍니다. aclinherit 등록 정보에 대한 새로운 상속성 값이 도입되었습니다. 이 값은 통과 체계를 허용하지만 상속된 owner@, group@everyone@ ACE에 설정된 권한을 open, create 또는 mkdir 시스템 호출에 요청된 값으로 대체합니다. 설정된 경우 모든 상속 가능한 ACE의 상속 비트가 보존됩니다. 이러한 동작은 SMB 및 NFS 공유가 ACL을 자연스러운 방법으로 상속하도록 허용하기 위해 중요합니다. 이 새로운 값은 passthrough-mode-preserve라고 부릅니다. aclmode 등록 정보는 변경사항이 없지만, chmod 작업 시 aclinherit 등록 정보와 관련된 상속성 동작을 고려합니다. 특히, chmod 작업 중 상속성 비트를 보존합니다.

자세한 내용은 Oracle Solaris 12에서 ZFS 파일 시스템 관리를 참조하십시오.

NFS 버전 4.1 서버 지원

Oracle Solaris 11.4에는 NFS 버전 4.1을 위한 서버 지원이 포함됩니다. 이 프로토콜에서 제공되는 기능 및 고려 사항은 다음과 같습니다.

  • EOS(Exactly Once Semantics) – NFS 버전 4.1 프로토콜에 대해 신뢰할 수 있는 중복 요청 캐시를 제공합니다. 이러한 중복 요청 캐시는 임시 네트워크 오류 및 재전송이 발생하더라도 제거 요청과 같은 비멱등 요청이 한 번만 실행되도록 보장합니다. 이 기능은 NFS 버전 3 및 NFS 버전 4에서의 장기 실행 문제를 없애줍니다.

  • reclaim_complete – 서버 다시 시작 후 서버가 NFS 서비스를 빠르게 재개할 수 있게 해주는 새로운 프로토콜 기능입니다. NFS 버전 4와 달리 사용자가 유예 기간으로 알려진 특정 시간 동안 기다릴 필요 없이 서비스로 돌아갈 수 있습니다. reclaim_complete를 사용하면 모든 클라이언트가 복구된 다음 서버가 유예 기간을 종료할 수 있습니다. 이 기능은 고가용성 환경에서 특히 중요합니다.

  • PGR(Planned GRACE-less Recovery) – NFS 서비스가 다시 시작되거나 유예 시스템 재부트가 수행될 때 Oracle Solaris NFS 버전 4 또는 NFS 버전 4.1 서버가 NFS 버전 4 상태를 보존할 수 있게 해줍니다. 이렇게 하면 NFS 버전 4 서버가 NFS 버전 4 상태를 복구하기 위해 GRACE 기간에 들어갈 필요가 없습니다. 따라서 NFS 서비스가 다시 시작되고 유예 시스템 재부트가 수행될 때 NFS 클라이언트 응용 프로그램에서 발생 가능한 90초 작동 중지 시간을 방지할 수 있습니다.

  • 다음과 같은 상호 운용성 문제를 고려해야 합니다.

    • Oracle Solaris NFS 버전 4.1에서는 Linux 클라이언트와 VMware가 모두 지원됩니다. 하지만 Linux 클라이언트의 경우 서버에서 위임을 사용 안함으로 설정해야 합니다.

    • Linux 클라이언트에서 위임을 사용할 때는 잠금 및 상태 내 복구와 관련된 알려진 문제가 있습니다.

      # sharectl set -p server_delegation=off nfs

      서버에서 NFS 버전 4.1 지원을 다음과 같이 사용 안함으로 설정할 수 있습니다.

      # sharectl set -p server_versmax=4.0 nfs

자세한 내용은 Oracle Solaris 12에서 네트워크 파일 시스템 관리를 참조하십시오.

TCP 사용 NFSv3 마운트

NFS 버전 3을 사용해서 파일 시스템이 마운트되었고 TCP가 선택된 전송 프로토콜인 경우, 초기 마운트 설정에서도 전송 프로토콜로 TCP가 사용됩니다. 이전 Oracle Solaris 릴리스에서는 마운트 설정에 UDP가 사용되고, 마운트가 설정된 다음에만 TCP가 사용됩니다.

방화벽을 통한 NFS 마운트를 허용할 경우, 이 기능으로 방화벽 구성을 단순화할 수 있습니다.

이 기능은 또한 UDP 트래픽이 차단되는 NFS 버전 3을 사용할 수 있게 해줍니다.

자세한 내용은 Oracle Solaris 12에서 네트워크 파일 시스템 관리mount_nfs(8) 매뉴얼 페이지를 참조하십시오.

tmpfs의 확장 파일 시스템 속성

tmpfs 파일 시스템은 확장 시스템 속성을 지원합니다. tmpfs(4FS) 및 fgetattr(3C) 매뉴얼 페이지를 참조하십시오.

SMB 3.1.1 지원

Oracle Solaris 11.4는 Oracle Solaris SMB 서버에서 다음 SMB 기능이 포함된 SMB 3.1.1 프로토콜 지원을 제공합니다.

  • 연속적으로 사용 가능한 공유 – 이 기능은 Oracle Solaris SMB 서버가 서버 충돌 또는 재부트 시에도 공유를 연속해서 사용할 수 있게 합니다.

  • 다중 채널 – 이 기능은 Oracle Solaris SMB 파일 서버가 SMB 세션별로 다중 네트워크 연결을 사용해서 늘어난 처리량 및 내결함성을 제공할 수 있게 해줍니다.

  • 암호화 – 이 기능은 Oracle Solaris SMB 서버가 클라이언트와 서버 사이의 SMB 네트워크 트래픽을 암호화할 수 있게 해줍니다. SMB 암호화는 SMB 세션을 보호하고 변조 및 도청 공격으로부터 보호합니다.

자세한 내용은 Managing SMB File Sharing and Windows Interoperability in Oracle Solaris 11.4smbstat(8) 매뉴얼 페이지를 참조하십시오.