JavaScript is required to for searching.
탐색 링크 건너뛰기
인쇄 보기 종료
Oracle Solaris ZFS 관리 설명서     Oracle Solaris 10 1/13 Information Library (한국어)
search filter icon
search icon

문서 정보

머리말

1.  Oracle Solaris ZFS 파일 시스템(소개)

2.  Oracle Solaris ZFS 시작하기

3.  Oracle Solaris ZFS 저장소 풀 관리

4.  Oracle Solaris ZFS 루트 파일 시스템 설치 및 부트

Oracle Solaris ZFS 루트 파일 시스템 설치 및 부트(개요)

ZFS 설치 기능

ZFS 지원을 위한 Oracle Solaris 설치 및 Live Upgrade 요구 사항

Oracle Solaris 릴리스 요구 사항

일반 ZFS 루트 풀 요구 사항

ZFS 루트 풀의 디스크 공간 요구 사항

ZFS 루트 풀 구성 요구 사항

ZFS 루트 파일 시스템 설치(Oracle Solaris 초기 설치)

미러링된 ZFS 루트 풀을 만드는 방법(사후 설치)

ZFS 루트 파일 시스템 설치(Oracle Solaris Flash 아카이브 설치)

ZFS 루트 파일 시스템 설치(JumpStart 설치)

ZFS에 대한 JumpStart 키워드

ZFS에 대한 JumpStart 프로파일의 예

ZFS에 대한 JumpStart 문제

ZFS 루트 파일 시스템으로 마이그레이션 또는 ZFS 루트 파일 시스템 업데이트(Live Upgrade)

Live Upgrade를 통한 ZFS 마이그레이션 문제

Live Upgrade를 사용하여 영역이 없는 ZFS 루트 파일 시스템 마이그레이션 또는 업데이트

Live Upgrade를 사용하여 영역이 있는 시스템 마이그레이션 또는 업그레이드(Solaris 10 10/08)

UFS에 영역 루트가 있는 UFS 루트 파일 시스템을 ZFS 루트 파일 시스템으로 마이그레이션하는 방법(Solaris 10 10/08)

ZFS에 영역 루트가 있는 ZFS 루트 파일 시스템을 구성하는 방법(Solaris 10 10/08)

ZFS에 영역 루트가 있는 ZFS 루트 파일 시스템을 업그레이드하거나 패치를 적용하는 방법(Solaris 10 10/08)

Oracle Solaris Live Upgrade를 사용하여 영역이 있는 시스템 마이그레이션 또는 업그레이드(Solaris 10 5/09 이상)

지원되는 ZFS 영역 루트 구성 정보(Solaris 10 5/09 이상)

ZFS 루트 파일 시스템 및 영역 루트가 있는 ZFS BE를 만드는 방법(Solaris 10 5/09 이상)

영역 루트가 있는 ZFS 루트 파일 시스템을 업그레이드하거나 패치를 적용하는 방법(Solaris 10 5/09 이상)

영역 루트가 있는 UFS 루트 파일 시스템을 ZFS 루트 파일 시스템으로 마이그레이션하는 방법(Solaris 10 5/09 이상)

Managing Your ZFS Swap and Dump Devices

ZFS 스왑 장치 및 덤프 장치의 크기 조정

ZFS 스왑 및 덤프 볼륨 사용자 정의

ZFS 덤프 장치 문제 해결

ZFS 루트 파일 시스템에서 부트

미러링된 ZFS 루트 풀의 대체 디스크에서 부트

SPARC: ZFS 루트 파일 시스템에서 부트

x86: ZFS 루트 파일 시스템에서 부트

부트가 성공하지 못하도록 하는 ZFS 마운트 지점 문제 해결(Solaris 10 10/08)

ZFS 마운트 지점 문제 해결 방법

복구를 위해 ZFS 루트 환경에서 부트

ZFS 비상 안전 모드 부트 방법

대체 매체에서 ZFS를 부트하는 방법

ZFS 루트 풀 또는 루트 풀 스냅샷 복구

ZFS 루트 풀의 디스크 교체 방법

루트 풀 스냅샷을 만드는 방법

ZFS 루트 풀을 다시 만들고 루트 풀 스냅샷을 복원하는 방법

비상 안전 부트에서 루트 풀 스냅샷을 롤백하는 방법

5.  Oracle Solaris ZFS 파일 시스템 관리

6.  Oracle Solaris ZFS 스냅샷 및 복제 작업

7.  ACL 및 속성을 사용하여 Oracle Solaris ZFS 파일 보호

8.  Oracle Solaris ZFS 위임 관리

9.  Oracle Solaris ZFS 고급 주제

10.  Oracle Solaris ZFS 문제 해결 및 풀 복구

11.  Oracle Solaris ZFS 권장 방법

A.  Oracle Solaris ZFS 버전 설명

색인

ZFS 루트 파일 시스템 설치(Oracle Solaris 초기 설치)

이 Oracle Solaris 릴리스에서는 다음 방법으로 초기 설치를 수행할 수 있습니다.

ZFS 저장소 풀을 만드는 초기 설치를 시작하기 전에 ZFS 지원을 위한 Oracle Solaris 설치 및 Live Upgrade 요구 사항을 참조하십시오.

ZFS 루트 파일 시스템 초기 설치 후 영역을 구성하고 시스템에 패치를 적용하거나 시스템을 업그레이드하려면 Live Upgrade를 사용하여 영역이 있는 시스템 마이그레이션 또는 업그레이드(Solaris 10 10/08) 또는 Oracle Solaris Live Upgrade를 사용하여 영역이 있는 시스템 마이그레이션 또는 업그레이드(Solaris 10 5/09 이상)를 참조하십시오.

시스템에 ZFS 저장소 풀이 이미 있을 경우 다음 메시지가 표시됩니다. 하지만 새 저장소 풀을 만들기 위해 기존 풀의 디스크를 선택하지 않을 경우 해당 풀은 그대로 유지됩니다.

There are existing ZFS pools available on this system.  However, they can only be upgraded 
using the Live Upgrade tools.  The following screens will only allow you to install a ZFS root system, 
not upgrade one.

주의

주의 - 새 풀에 대한 디스크가 선택되면 기존 풀이 삭제됩니다.


예 4-1 부트 가능 ZFS 루트 파일 시스템 초기 설치

일반적으로 대화식 텍스트 설치 프로세스는 UFS 루트 파일 시스템을 만들지 아니면 ZFS 루트 파일 시스템을 만들지 묻는 프롬프트가 표시되는 것만 다르고 이전 Oracle Solaris 릴리스와 동일합니다. 이 릴리스에서도 UFS가 기본 파일 시스템입니다. ZFS 루트 파일 시스템을 선택하면 ZFS 저장소 풀을 만들지 묻는 프롬프트가 표시됩니다. ZFS 루트 파일 시스템 설치 단계는 다음과 같습니다.

  1. Oracle Solaris 설치 매체를 넣거나 설치 서버에서 시스템을 부트합니다. 그런 다음 부트 가능 ZFS 루트 파일 시스템을 만들 대화식 텍스트 설치 방법을 선택합니다.

    • SPARC: Oracle Solaris 설치 DVD에 다음 구문을 사용합니다.

      ok boot cdrom - text
    • SPARC: 네트워크에서 부트할 때 다음 구문을 사용합니다.

      ok boot net - text
    • x86: 텍스트 모드 설치 방법을 선택합니다.

    다음 방법으로 설치할 ZFS Flash 아카이브를 만들 수도 있습니다.

    • JumpStart 설치. 자세한 내용은 예 4-2를 참조하십시오.

    • 초기 설치. 자세한 내용은 예 4-3을 참조하십시오.

    기존의 부트 가능 ZFS 파일 시스템을 업그레이드할 때는 표준 업그레이드를 수행할 수 있지만 부트 가능 ZFS 파일 시스템을 새로 만들 때는 이 옵션을 사용할 수 없습니다. Solaris 10 10/08 릴리스부터는 Solaris 10 10/08 이상 릴리스가 이미 설치된 경우 UFS 루트 파일 시스템을 ZFS 루트 파일 시스템으로 마이그레이션할 수 있습니다. ZFS 루트 파일 시스템으로 마이그레이션하는 방법은 ZFS 루트 파일 시스템으로 마이그레이션 또는 ZFS 루트 파일 시스템 업데이트(Live Upgrade)를 참조하십시오.

  2. ZFS 루트 파일 시스템을 만들려면 ZFS 옵션을 선택합니다. 예를 들면 다음과 같습니다.

    Choose Filesystem Type
    
      Select the filesystem to use for your Solaris installation
    
    
                [ ] UFS
                [X] ZFS
  3. 설치할 소프트웨어를 설치한 후 ZFS 저장소 풀을 만들려면 디스크를 선택하라는 메시지가 표시됩니다. 이 화면은 이전 릴리스와 유사합니다.

    Select Disks
      On this screen you must select the disks for installing Solaris software.
      Start by looking at the Suggested Minimum field; this value is the
      approximate space needed to install the software you've selected. For ZFS,
      multiple disks will be configured as mirrors, so the disk you choose, or the
      slice within the disk must exceed the Suggested Minimum value.
      NOTE: ** denotes current boot disk
    
      Disk Device                                              Available Space
      =============================================================================
      [X] ** c1t0d0                                           139989 MB  (F4 to edit
    ) [ ]    c1t1d0                                           139989 MB
      [ ]    c1t2d0                                           139989 MB
      [ ]    c1t3d0                                           139989 MB
      [ ]    c2t0d0                                           139989 MB
      [ ]    c2t1d0                                           139989 MB
      [ ]    c2t2d0                                           139989 MB
      [ ]    c2t3d0                                           139989 MB
                                      Maximum Root Size: 139989 MB
                                      Suggested Minimum:  11102 MB

    ZFS 루트 풀에 사용할 디스크를 하나 이상 선택할 수 있습니다. 디스크를 두 개 선택하는 경우 미러된 2-디스크 구성이 루트 풀에 대해 설정됩니다. 2-디스크 또는 3-디스크로 미러링된 풀이 최적입니다. 디스크가 여덟 개 있으며 여덟 개를 모두 선택하는 경우 이러한 여덟 개의 디스크가 하나의 큰 미러로 루트 풀에 사용됩니다. 이 구성은 최적이 아닙니다. 초기 설치 완료 후 미러링된 루트 풀을 만들 수도 있습니다. 루트 풀에 대한 RAID-Z 풀 구성은 지원되지 않습니다.

    ZFS 저장소 풀 구성에 대한 자세한 내용은 ZFS 저장소 풀의 복제 기능을 참조하십시오.

  4. 미러링된 루트 풀을 만들기 위해 두 개의 디스크를 선택하려면 커서 제어 키를 사용하여 두번째 디스크를 선택합니다.

    다음 예에서는 c1t0d0c1t1d0이 루트 풀 디스크에 대해 선택됩니다. 두 디스크의 레이블은 SMI, 슬라이스는 0이어야 합니다. 디스크의 레이블이 SMI로 지정되지 않거나 디스크에 슬라이스가 포함되지 않은 경우 설치 프로그램을 종료하고 format 유틸리티를 사용하여 레이블을 재지정한 후 설치 프로그램을 다시 시작해야 합니다.

    Select Disks
      On this screen you must select the disks for installing Solaris software.
      Start by looking at the Suggested Minimum field; this value is the
      approximate space needed to install the software you've selected. For ZFS,
      multiple disks will be configured as mirrors, so the disk you choose, or the
      slice within the disk must exceed the Suggested Minimum value.
      NOTE: ** denotes current boot disk
    
      Disk Device                                              Available Space
      =============================================================================
      [X] ** c1t0d0                                           139989 MB  (F4 to edit
    ) [X]    c1t1d0                                           139989 MB
      [ ]    c1t2d0                                           139989 MB
      [ ]    c1t3d0                                           139989 MB
      [ ]    c2t0d0                                           139989 MB
      [ ]    c2t1d0                                           139989 MB
      [ ]    c2t2d0                                           139989 MB
      [ ]    c2t3d0                                           139989 MB
    
                                      Maximum Root Size: 139989 MB
                                      Suggested Minimum:  11102 MB

    Available Space(사용 가능한 공간) 열에 0MB가 표시되면 디스크의 레이블이 EFI인 것일 수 있습니다. 레이블이 EFI인 디스크를 사용하려면 설치 프로그램을 종료하고 format -e 명령을 사용하여 디스크의 레이블을 SMI로 재지정한 후 설치 프로그램을 다시 시작해야 합니다.

    설치 중 미러링된 루트 풀을 만들지 않는 경우에도 설치 후 간편하게 만들 수 있습니다. 자세한 내용은 미러링된 ZFS 루트 풀을 만드는 방법(사후 설치)을 참조하십시오.

    ZFS 저장소 풀에 대한 디스크를 하나 이상 선택한 후에는 다음과 유사한 화면이 표시됩니다.

    Configure ZFS Settings
      Specify the name of the pool to be created from the disk(s) you have chosen.
      Also specify the name of the dataset to be created within the pool that is
      to be used as the root directory for the filesystem.
    
    
                  ZFS Pool Name: rpool
          ZFS Root Dataset Name: s10nameBE
          ZFS Pool Size (in MB): 139990
      Size of Swap Area (in MB): 4096
      Size of Dump Area (in MB): 1024
            (Pool size must be between 7006 MB and 139990 MB)
    
                             [X] Keep / and /var combined
                             [ ] Put /var on a separate dataset
  5. 이 화면에서 커서 제어 키로 항목을 이동하면서 기본값을 새 값으로 바꾸는 방식으로 필요에 따라 ZFS 풀 이름, 데이터 세트 이름, 풀 크기, 스왑 및 덤프 장치 크기를 변경할 수 있습니다. 또는 기본값을 그대로 적용할 수도 있습니다. 또한 /var 파일 시스템을 만들고 마운트하는 방식을 수정할 수 있습니다.

    이 예에서는 루트 데이터 세트 이름이 zfsBE로 변경됩니다.

                  ZFS Pool Name: rpool
          ZFS Root Dataset Name: zfsBE
          ZFS Pool Size (in MB): 139990
      Size of Swap Area (in MB): 4096
      Size of Dump Area (in MB): 1024
            (Pool size must be between 7006 MB and 139990 MB)
  6. 이 마지막 설치 화면에서 필요에 따라 설치 프로파일을 변경할 수 있습니다. 예를 들면 다음과 같습니다.

    Profile
    
      The information shown below is your profile for installing Solaris software.
      It reflects the choices you've made on previous screens.
    
      ============================================================================
    
                    Installation Option: Initial
                            Boot Device: c1t0d0
                  Root File System Type: ZFS
                        Client Services: None
    
                                Regions: North America
                          System Locale: C ( C )
    
                               Software: Solaris 10, Entire Distribution
                              Pool Name: rpool
                  Boot Environment Name: zfsBE
                              Pool Size: 139990 MB
                        Devices in Pool: c1t0d0
                                         c1t1d0
  7. 설치가 완료되면 결과로 반환된 ZFS 저장소 풀 및 파일 시스템 정보를 검토합니다. 예를 들면 다음과 같습니다.

    # zpool status
      pool: rpool
     state: ONLINE
     scrub: none requested
    config:
    
            NAME          STATE     READ WRITE CKSUM
            rpool         ONLINE       0     0     0
              mirror-0    ONLINE       0     0     0
                c1t0d0s0  ONLINE       0     0     0
                c1t1d0s0  ONLINE       0     0     0
    
    errors: No known data errors
    # zfs list
    NAME                USED  AVAIL  REFER  MOUNTPOINT
    rpool              10.1G   124G   106K  /rpool
    rpool/ROOT         5.01G   124G    31K  legacy
    rpool/ROOT/zfsBE   5.01G   124G  5.01G  /
    rpool/dump         1.00G   124G  1.00G  -
    rpool/export         63K   124G    32K  /export
    rpool/export/home    31K   124G    31K  /export/home
    rpool/swap         4.13G   124G  4.00G  -

    샘플 zfs list 출력 결과에서는 기본적으로 액세스할 수 없는 루트 풀 구성 요소(예: rpool/ROOT 디렉토리)를 식별합니다.

  8. 동일한 저장소 풀에 다른 ZFS BE(부트 환경)를 만들려면 lucreate 명령을 사용합니다.

    다음 예에서는 zfs2BE라는 이름의 새 BE가 만들어집니다. 현재 BE의 이름은 zfs list 출력과 같이 zfsBE입니다. 하지만 현재 BE는 새 BE가 만들어지기 전까지 lustatus 출력 결과에서 확인되지 않습니다.

    # lustatus
    ERROR: No boot environments are configured on this system
    ERROR: cannot determine list of all boot environment names

    동일한 풀에 새 ZFS BE를 만드는 경우 다음과 유사한 구문을 사용합니다.

    # lucreate -n zfs2BE
    INFORMATION: The current boot environment is not named - assigning name <zfsBE>.
    Current boot environment is named <zfsBE>.
    Creating initial configuration for primary boot environment <zfsBE>.
    The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
    PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
    Comparing source boot environment <zfsBE> file systems with the file 
    system(s) you specified for the new boot environment. Determining which 
    file systems should be in the new boot environment.
    Updating boot environment description database on all BEs.
    Updating system configuration files.
    Creating configuration for boot environment <zfs2BE>.
    Source boot environment is <zfsBE>.
    Creating boot environment <zfs2BE>.
    Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>.
    Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>.
    Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>.
    Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>.
    Population of boot environment <zfs2BE> successful.
    Creation of boot environment <zfs2BE> successful.

    동일한 풀에 ZFS BE를 만들 때는 ZFS 복제 및 스냅샷 기능을 통해 BE가 즉시 만들어집니다. ZFS 루트 마이그레이션에 Live Upgrade를 사용하는 방법은 ZFS 루트 파일 시스템으로 마이그레이션 또는 ZFS 루트 파일 시스템 업데이트(Live Upgrade)를 참조하십시오.

  9. 다음으로 새 부트 환경을 확인합니다. 예를 들면 다음과 같습니다.

    # lustatus
    Boot Environment           Is       Active Active    Can    Copy      
    Name                       Complete Now    On Reboot Delete Status    
    -------------------------- -------- ------ --------- ------ ----------
    zfsBE                      yes      yes    yes       no     -         
    zfs2BE                     yes      no     no        yes    -        
    # zfs list
    NAME                      USED  AVAIL  REFER  MOUNTPOINT
    rpool                    10.1G   124G   106K  /rpool
    rpool/ROOT               5.00G   124G    31K  legacy
    rpool/ROOT/zfs2BE         218K   124G  5.00G  /
    rpool/ROOT/zfsBE         5.00G   124G  5.00G  /
    rpool/ROOT/zfsBE@zfs2BE   104K      -  5.00G  -
    rpool/dump               1.00G   124G  1.00G  -
    rpool/export               63K   124G    32K  /export
    rpool/export/home          31K   124G    31K  /export/home
    rpool/swap               4.13G   124G  4.00G  -
  10. 대체 BE에서 부트하려면 luactivate 명령을 사용합니다.

    • SPARC - 부트 장치에 ZFS 저장소 풀이 포함된 경우 boot -L 명령을 사용하여 사용 가능한 BE를 식별합니다.

      예를 들어, SPARC 기반 시스템에서는 boot - L 명령으로 사용 가능한 BE 목록을 표시합니다. 새 BE(zfs2BE)에서 부트하려면 옵션 2를 선택합니다. 그런 다음 표시된 boot -Z 명령을 입력합니다.

      ok boot -L
      Executing last command: boot -L                                       
      Boot device: /pci@7c0/pci@0/pci@1/pci@0,2/LSILogic,sas@2/disk@0  File and args: -L
      1 zfsBE
      2 zfs2BE
      Select environment to boot: [ 1 - 2 ]: 2
      
      To boot the selected entry, invoke:
      boot [<root-device>] -Z rpool/ROOT/zfs2BE
      ok boot -Z rpool/ROOT/zfs2BE
    • x86 – GRUB 메뉴에서 부트할 BE를 식별합니다.

ZFS 파일 시스템 부트에 대한 자세한 내용은 ZFS 루트 파일 시스템에서 부트를 참조하십시오.

미러링된 ZFS 루트 풀을 만드는 방법(사후 설치)

설치 중 미러링된 ZFS 루트 풀을 만들지 않은 경우에도 설치 후 간편하게 만들 수 있습니다.

루트 풀의 디스크 교체 방법은 ZFS 루트 풀의 디스크 교체 방법을 참조하십시오.

  1. 현재 루트 풀 상태를 표시합니다.
    # zpool status rpool
      pool: rpool
     state: ONLINE
     scrub: none requested
    config:
    
            NAME        STATE     READ WRITE CKSUM
            rpool       ONLINE       0     0     0
              c1t0d0s0  ONLINE       0     0     0
    
    errors: No known data errors
  2. 두번째 디스크를 연결하여 미러링된 루트 풀을 구성합니다.
    # zpool attach rpool c1t0d0s0 c1t1d0s0
    Make sure to wait until resilver is done before rebooting.
  3. 루트 풀 상태를 통해 리실버링이 완료되었는지 확인합니다.
    # zpool status rpool
      pool: rpool
     state: ONLINE
    status: One or more devices is currently being resilvered.  The pool will
            continue to function, possibly in a degraded state.
    action: Wait for the resilver to complete.
     scrub: resilver in progress for 0h1m, 24.26% done, 0h3m to go
    config:
    
            NAME          STATE     READ WRITE CKSUM
            rpool         ONLINE       0     0     0
              mirror-0    ONLINE       0     0     0
                c1t0d0s0  ONLINE       0     0     0
                c1t1d0s0  ONLINE       0     0     0  3.18G resilvered
    
    errors: No known data errors

    앞의 출력 결과는 리실버링 프로세스가 완료되지 않은 상태를 보여 줍니다. 다음과 유사한 메시지가 표시되면 리실버링이 완료된 것입니다.

    resilvered 10.0G in 0h10m with 0 errors on Thu Nov 15 12:48:33 2012
  4. 두번째 디스크에서 성공적으로 부트할 수 있는지 확인합니다.
  5. 필요한 경우 새 디스크에서 자동으로 부트하도록 시스템을 설정합니다.
    • SPARC - SPARC 부트 PROM에서 eeprom 명령 또는 setenv 명령을 사용하여 기본 부트 장치를 재설정합니다.

    • x86 - 시스템 BIOS를 재구성합니다.