JavaScript is required to for searching.
탐색 링크 건너뛰기
인쇄 보기 종료
Oracle Solaris ZFS 관리 설명서     Oracle Solaris 10 8/11 Information Library (한국어)
search filter icon
search icon

문서 정보

머리말

1.  Oracle Solaris ZFS 파일 시스템(소개)

2.  Oracle Solaris ZFS 시작하기

3.  Oracle Solaris ZFS와 전통적인 파일 시스템의 차이

4.  Oracle Solaris ZFS 저장소 풀 관리

5.  Oracle Solaris ZFS 루트 파일 시스템 설치 및 부트

Oracle Solaris ZFS 루트 파일 시스템 설치 및 부트(개요)

ZFS 설치 기능

ZFS 지원을 위한 Oracle Solaris 설치 및 Live Upgrade 요구 사항

Oracle Solaris 릴리스 요구 사항

일반 ZFS 저장소 풀 요구 사항

ZFS 저장소 풀의 디스크 공간 요구 사항

ZFS 저장소 풀 구성 요구 사항

ZFS 루트 파일 시스템 설치(Oracle Solaris 초기 설치)

미러링된 ZFS 루트 풀을 만드는 방법(사후 설치)

ZFS 루트 파일 시스템 설치(Oracle Solaris Flash 아카이브 설치)

ZFS 루트 파일 시스템 설치(JumpStart 설치)

ZFS에 대한 JumpStart 키워드

ZFS에 대한 JumpStart 프로필의 예

ZFS에 대한 JumpStart 문제

ZFS 루트 파일 시스템으로 마이그레이션 또는 ZFS 루트 파일 시스템 업데이트(Live Upgrade)

Live Upgrade를 통한 ZFS 마이그레이션 문제

Live Upgrade를 사용하여 영역이 없는 ZFS 루트 파일 시스템 마이그레이션 또는 업데이트

Live Upgrade를 사용하여 영역이 있는 시스템 마이그레이션 또는 업그레이드(Solaris 10 10/08)

UFS에 영역 루트가 있는 UFS 루트 파일 시스템을 ZFS 루트 파일 시스템으로 마이그레이션하는 방법(Solaris 10 10/08)

ZFS에 영역 루트가 있는 ZFS 루트 파일 시스템을 구성하는 방법(Solaris 10 10/08)

ZFS에 영역 루트가 있는 ZFS 루트 파일 시스템을 업그레이드하거나 패치를 적용하는 방법(Solaris 10 10/08)

Oracle Solaris Live Upgrade를 사용하여 영역이 있는 시스템 마이그레이션 또는 업그레이드(Solaris 10 5/09 이상)

지원되는 ZFS 영역 루트 구성 정보(Solaris 10 5/09 이상)

ZFS 루트 파일 시스템 및 영역 루트가 있는 ZFS BE를 만드는 방법(Solaris 10 5/09 이상)

영역 루트가 있는 ZFS 루트 파일 시스템을 업그레이드하거나 패치를 적용하는 방법(Solaris 10 5/09 이상)

영역 루트가 있는 UFS 루트 파일 시스템을 ZFS 루트 파일 시스템으로 마이그레이션하는 방법(Solaris 10 5/09 이상)

스왑 및 덤프 장치에 대한 ZFS 지원

ZFS 스왑 장치 및 덤프 장치의 크기 조정

ZFS 덤프 장치 문제 해결

ZFS 루트 파일 시스템에서 부트

미러링된 ZFS 루트 풀의 대체 디스크에서 부트

SPARC: ZFS 루트 파일 시스템에서 부트

x86: ZFS 루트 파일 시스템에서 부트

부트가 성공하지 못하도록 하는 ZFS 마운트 지점 문제 해결(Solaris 10 10/08)

ZFS 마운트 지점 문제 해결 방법

복구를 위해 ZFS 루트 환경에서 부트

ZFS 비상 안전 모드 부트 방법

대체 매체에서 ZFS를 부트하는 방법

ZFS 루트 풀 또는 루트 풀 스냅샷 복구

ZFS 루트 풀의 디스크 교체 방법

루트 풀 스냅샷을 만드는 방법

ZFS 루트 풀을 다시 만들고 루트 풀 스냅샷을 복원하는 방법

비상 안전 부트에서 루트 풀 스냅샷을 롤백하는 방법

6.  Oracle Solaris ZFS 파일 시스템 관리

7.  Oracle Solaris ZFS 스냅샷 및 복제 작업

8.  ACL 및 속성을 사용하여 Oracle Solaris ZFS 파일 보호

9.  Oracle Solaris ZFS 위임 관리

10.  Oracle Solaris ZFS 고급 주제

11.  Oracle Solaris ZFS 문제 해결 및 풀 복구

A.  Oracle Solaris ZFS 버전 설명

색인

ZFS 루트 파일 시스템으로 마이그레이션 또는 ZFS 루트 파일 시스템 업데이트(Live Upgrade)

UFS 구성 요소와 관련된 Live Upgrade 기능은 계속 사용할 수 있지만 이전 릴리스에서와 동일한 방식으로 작동합니다.

다음 기능을 사용할 수 있습니다.

Oracle Solaris 설치 및 Live Upgrade 기능에 대한 자세한 내용은 Oracle Solaris 10 9/10 설치 설명서: Solaris Live Upgrade 및 업그레이드 계획을 참조하십시오.

ZFS 및 Live Upgrade 요구 사항에 대한 자세한 내용은 ZFS 지원을 위한 Oracle Solaris 설치 및 Live Upgrade 요구 사항을 참조하십시오.

Live Upgrade를 통한 ZFS 마이그레이션 문제

Live Upgrade를 사용하여 UFS 루트 파일 시스템을 ZFS 루트 파일 시스템으로 마이그레이션하기 전에 다음 문제를 검토하십시오.

Live Upgrade를 사용하여 영역이 없는 ZFS 루트 파일 시스템 마이그레이션 또는 업데이트

다음 예에서는 UFS 루트 파일 시스템을 ZFS 루트 파일 시스템으로 마이그레이션하는 방법과 ZFS 루트 파일 시스템을 업데이트하는 방법을 보여 줍니다.

영역이 있는 시스템을 마이그레이션하거나 업데이트하는 경우 다음 단원을 참조하십시오.

예 5-4 Live Upgrade를 사용하여 UFS 루트 파일 시스템을 ZFS 루트 파일 시스템으로 마이그레이션

다음 예에서는 UFS 루트 파일 시스템에서 ZFS 루트 파일 시스템을 마이그레이션하는 방법을 보여 줍니다. UFS 루트 파일 시스템을 포함하는 현재 BE인 ufsBE-c 옵션으로 식별됩니다. 선택적 -c 옵션을 포함시키지 않을 경우 기본적으로 장치 이름이 현재 BE 이름으로 설정됩니다. 새 BE인 zfsBE-n 옵션으로 식별됩니다. lucreate 작업이 수행되기 전에 ZFS 저장소 풀이 존재해야 합니다.

업그레이드 및 부트가 가능하도록 하려면 전체 디스크가 아닌 슬라이스로 ZFS 저장소 풀을 만들어야 합니다. 새 풀을 만들기 전에 풀에서 사용할 디스크의 레이블이 EFI가 아닌 SMI(VTOC)인지 확인하십시오. 디스크의 레이블이 SMI로 재지정되는 경우 레이블 지정 프로세스를 통해 분할 체계가 변경되지 않습니다. 대부분의 경우 전체 디스크 용량은 루트 풀에 사용되는 슬라이스에 할당되어야 합니다.

# zpool create rpool mirror c1t2d0s0 c2t1d0s0
# lucreate -c ufsBE -n zfsBE -p rpool
Analyzing system configuration.
No name for current boot environment.
Current boot environment is named <ufsBE>.
Creating initial configuration for primary boot environment <ufsBE>.
The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
PBE configuration successful: PBE name <ufsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
Comparing source boot environment <ufsBE> file systems with the file 
system(s) you specified for the new boot environment. Determining which 
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t2d0s0> is not a root device for any boot environment; cannot get BE ID.
Creating configuration for boot environment <zfsBE>.
Source boot environment is <ufsBE>.
Creating boot environment <zfsBE>.
Creating file systems on boot environment <zfsBE>.
Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>.
Populating file systems on boot environment <zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </rpool/ROOT>.
Creating compare database for file system </>.
Updating compare databases on boot environment <zfsBE>.
Making boot environment <zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-qD.mnt
updating /.alt.tmp.b-qD.mnt/platform/sun4u/boot_archive
Population of boot environment <zfsBE> successful.
Creation of boot environment <zfsBE> successful.

lucreate 작업이 완료된 후 lustatus 명령을 사용하여 BE 상태를 확인합니다. 예를 들면 다음과 같습니다.

# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
ufsBE                      yes      yes    yes       no     -         
zfsBE                      yes      no     no        yes    -         

그런 다음 ZFS 구성 요소 목록을 검토합니다. 예를 들면 다음과 같습니다.

# zfs list
NAME                   USED  AVAIL  REFER  MOUNTPOINT
rpool                 7.17G  59.8G  95.5K  /rpool
rpool/ROOT            4.66G  59.8G    21K  /rpool/ROOT
rpool/ROOT/zfsBE      4.66G  59.8G  4.66G  /
rpool/dump               2G  61.8G    16K  -
rpool/swap             517M  60.3G    16K  -

다음으로 luactivate 명령을 사용하여 새 ZFS BE를 활성화합니다. 예를 들면 다음과 같습니다.

# luactivate zfsBE
A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>.

**********************************************************************

The target boot environment has been activated. It will be used when you 
reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You 
MUST USE either the init or the shutdown command when you reboot. If you 
do not use either init or shutdown, the system will not boot using the 
target BE.

**********************************************************************
.
.
.
Modifying boot archive service
Activation of boot environment <zfsBE> successful.

다음으로 ZFS BE로 시스템을 재부트합니다.

# init 6

ZFS BE가 활성화되었는지 확인합니다.

# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
ufsBE                      yes      no     no        yes    -         
zfsBE                      yes      yes    yes       no     -      

UFS BE로 다시 전환하는 경우 ZFS BE가 부트된 동안 만들어진 모든 ZFS 저장소 풀은 UFS BE에서 자동으로 사용 가능한 상태로 설정되지 않으므로 해당 ZFS 저장소 풀을 다시 가져와야 합니다.

UFS BE가 더 이상 필요하지 않을 경우 ludelete 명령을 사용하여 제거할 수 있습니다.

예 5-5 Live Upgrade를 사용하여 UFS BE에서 ZFS BE 만들기(별도의 /var 포함)

Oracle Solaris 10 8/11 릴리스에서는 lucreate -D 옵션을 사용하여 UFS 루트 파일 시스템을 ZFS 루트 파일 시스템으로 마이그레이션할 때 별도의 /var 파일 시스템이 만들어지도록 지정할 수 있습니다. 다음 예에서는 기존 UFS BE가 ZFS BE로 마이그레이션될 때 별도의 /var 파일 시스템이 만들어집니다.

# lucreate -n zfsBE -p rpool -D /var
Determining types of file systems supported
Validating file system requests
Preparing logical storage devices
Preparing physical storage devices
Configuring physical storage devices
Configuring logical storage devices
Analyzing system configuration.
No name for current boot environment.
INFORMATION: The current boot environment is not named - assigning name <c0t0d0s0>.
Current boot environment is named <c0t0d0s0>.
Creating initial configuration for primary boot environment <c0t0d0s0>.
INFORMATION: No BEs are configured on this system.
The device </dev/dsk/c0t0d0s0> is not a root device for any boot environment; cannot get BE ID.
PBE configuration successful: PBE name <c0t0d0s0> PBE Boot Device </dev/dsk/c0t0d0s0>.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c0t1d0s0> is not a root device for any boot environment; cannot get BE ID.
Creating configuration for boot environment <zfsBE>.
Source boot environment is <c0t0d0s0>.
Creating file systems on boot environment <zfsBE>.
Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>.
Creating <zfs> file system for </var> in zone <global> on <rpool/ROOT/zfsBE/var>.
Populating file systems on boot environment <zfsBE>.
Analyzing zones.
Mounting ABE <zfsBE>.
Generating file list.
Copying data from PBE <c0t0d0s0> to ABE <zfsBE>
100% of filenames transferred
Finalizing ABE.
Fixing zonepaths in ABE.
Unmounting ABE <zfsBE>.
Fixing properties on ZFS datasets in ABE.
Reverting state of zones in PBE <c0t0d0s0>.
Making boot environment <zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-iaf.mnt
updating /.alt.tmp.b-iaf.mnt/platform/sun4u/boot_archive
Population of boot environment <zfsBE> successful.
Creation of boot environment <zfsBE> successful.
# luactivate zfsBE
A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>.
.
.
.
Modifying boot archive service
Activation of boot environment <zfsBE> successful.
# init 6

새로 만들어진 ZFS 파일 시스템을 검토합니다. 예를 들면 다음과 같습니다.

# zfs list
NAME                   USED  AVAIL  REFER  MOUNTPOINT
rpool                 6.29G  26.9G  32.5K  /rpool
rpool/ROOT            4.76G  26.9G    31K  legacy
rpool/ROOT/zfsBE      4.76G  26.9G  4.67G  /
rpool/ROOT/zfsBE/var  89.5M  26.9G  89.5M  /var
rpool/dump             512M  26.9G   512M  -
rpool/swap            1.03G  28.0G    16K  -

예 5-6 Live Upgrade를 사용하여 ZFS BE에서 ZFS BE 만들기

동일한 풀에서 ZFS BE를 기반으로 ZFS BE를 만들 때는 ZFS 스냅샷 및 복제 기능이 사용되므로 이 작업은 매우 빨리 수행할 수 있습니다. 현재 BE가 동일한 ZFS 풀에 상주하는 경우 -p 옵션을 생략합니다.

ZFS BE가 여러 개 있을 경우 다음 작업을 수행하여 부트할 BE를 선택합니다.

자세한 내용은 예 5-12를 참조하십시오.

# lucreate -n zfs2BE
Analyzing system configuration.
No name for current boot environment.
INFORMATION: The current boot environment is not named - assigning name <zfsBE>.
Current boot environment is named <zfsBE>.
Creating initial configuration for primary boot environment <zfsBE>.
The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
Comparing source boot environment <zfsBE> file systems with the file 
system(s) you specified for the new boot environment. Determining which 
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
Creating configuration for boot environment <zfs2BE>.
Source boot environment is <zfsBE>.
Creating boot environment <zfs2BE>.
Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>.
Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>.
Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>.
Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>.
Population of boot environment <zfs2BE> successful.
Creation of boot environment <zfs2BE> successful.

예 5-7 ZFS BE 업데이트(luupgrade)

추가 패키지 또는 패치를 사용하여 ZFS BE를 업데이트할 수 있습니다.

기본적인 프로세스는 다음과 같습니다.

# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
zfsBE                      yes      no     no        yes    -         
zfs2BE                     yes      yes    yes       no     -   
# luupgrade -p -n zfsBE -s /net/system/export/s10up/Solaris_10/Product SUNWchxge
Validating the contents of the media </net/install/export/s10up/Solaris_10/Product>.
Mounting the BE <zfsBE>.
Adding packages to the BE <zfsBE>.

Processing package instance <SUNWchxge> from </net/install/export/s10up/Solaris_10/Product>

Chelsio N110 10GE NIC Driver(sparc) 11.10.0,REV=2006.02.15.20.41
Copyright (c) 2010, Oracle and/or its affiliates. All rights reserved.

This appears to be an attempt to install the same architecture and
version of a package which is already installed.  This installation
will attempt to overwrite this package.

Using </a> as the package base directory.
## Processing package information.
## Processing system information.
   4 package pathnames are already properly installed.
## Verifying package dependencies.
## Verifying disk space requirements.
## Checking for conflicts with packages already installed.
## Checking for setuid/setgid programs.

This package contains scripts which will be executed with super-user
permission during the process of installing this package.

Do you want to continue with the installation of <SUNWchxge> [y,n,?] y
Installing Chelsio N110 10GE NIC Driver as <SUNWchxge>

## Installing part 1 of 1.
## Executing postinstall script.

Installation of <SUNWchxge> was successful.
Unmounting the BE <zfsBE>.
The package add to the BE <zfsBE> completed.

또는 새 BE를 만들어 최신 Oracle Solaris 릴리스로 업데이트할 수도 있습니다. 예를 들면 다음과 같습니다.

# luupgrade -u -n newBE -s /net/install/export/s10up/latest

여기서 -s 옵션은 Solaris 설치 매체의 위치를 지정합니다.

예 5-8 ZFS Flash 아카이브를 사용하여 ZFS BE 만들기(luupgrade)

Oracle Solaris 10 8/11 릴리스에서는 luupgrade 명령을 사용하여 기존 ZFS Flash 아카이브에서 ZFS BE를 만들 수 있습니다. 기본적인 프로세스는 다음과 같습니다.

  1. ZFS BE를 사용하여 마스터 시스템의 Flash 아카이브를 만듭니다.

    예를 들면 다음과 같습니다.

    master-system# flarcreate -n s10zfsBE /tank/data/s10zfsflar
    Full Flash
    Checking integrity...
    Integrity OK.
    Running precreation scripts...
    Precreation scripts done.
    Determining the size of the archive...
    The archive will be approximately 4.67GB.
    Creating the archive...
    Archive creation complete.
    Running postcreation scripts...
    Postcreation scripts done.
    
    Running pre-exit scripts...
    Pre-exit scripts done.
  2. 마스터 시스템에서 만들어진 ZFS Flash 아카이브를 복제 시스템에서 사용 가능한 상태로 설정합니다.

    가능한 Flash 아카이브 위치는 로컬 파일 시스템, HTTP, FTP, NFS 등입니다.

  3. 복제 시스템에서 빈 대체 ZFS BE를 만듭니다.

    -s - 옵션을 사용하여 이 BE를 ZFS Flash 아카이브 컨텐츠로 채울 빈 BE로 지정합니다.

    예를 들면 다음과 같습니다.

    clone-system# lucreate -n zfsflashBE -s - -p rpool
    Determining types of file systems supported
    Validating file system requests
    Preparing logical storage devices
    Preparing physical storage devices
    Configuring physical storage devices
    Configuring logical storage devices
    Analyzing system configuration.
    No name for current boot environment.
    INFORMATION: The current boot environment is not named - assigning name <s10zfsBE>.
    Current boot environment is named <s10zfsBE>.
    Creating initial configuration for primary boot environment <s10zfsBE>.
    INFORMATION: No BEs are configured on this system.
    The device </dev/dsk/c0t0d0s0> is not a root device for any boot environment; cannot get BE ID.
    PBE configuration successful: PBE name <s10zfsBE> PBE Boot Device </dev/dsk/c0t0d0s0>.
    Updating boot environment description database on all BEs.
    Updating system configuration files.
    The device </dev/dsk/c0t1d0s0> is not a root device for any boot environment; cannot get BE ID.
    Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsflashBE>.
    Creation of boot environment <zfsflashBE> successful.
  4. 대체 BE에 ZFS Flash 아카이브를 설치합니다.

    예를 들면 다음과 같습니다.

    clone-system# luupgrade -f -s /net/server/export/s10/latest -n zfsflashBE -a /tank/data/zfs10up2flar
    miniroot filesystem is <lofs>
    Mounting miniroot at </net/server/s10up/latest/Solaris_10/Tools/Boot>
    Validating the contents of the media </net/server/export/s10up/latest>.
    The media is a standard Solaris media.
    Validating the contents of the miniroot </net/server/export/s10up/latest/Solaris_10/Tools/Boot>.
    Locating the flash install program.
    Checking for existence of previously scheduled Live Upgrade requests.
    Constructing flash profile to use.
    Creating flash profile for BE <zfsflashBE>.
    Performing the operating system flash install of the BE <zfsflashBE>.
    CAUTION: Interrupting this process may leave the boot environment unstable or unbootable.
    Extracting Flash Archive: 100% completed (of 5020.86 megabytes)            
    The operating system flash install completed.
    updating /.alt.tmp.b-rgb.mnt/platform/sun4u/boot_archive
    
    The Live Flash Install of the boot environment <zfsflashBE> is complete.
  5. 대체 BE를 활성화합니다.

    clone-system# luactivate zfsflashBE
    A Live Upgrade Sync operation will be performed on startup of boot environment <zfsflashBE>.
    .
    .
    .
    Modifying boot archive service
    Activation of boot environment <zfsflashBE> successful.
  6. 시스템을 재부트합니다.

    clone-system# init 6

Live Upgrade를 사용하여 영역이 있는 시스템 마이그레이션 또는 업그레이드(Solaris 10 10/08)

Live Upgrade를 사용하여 영역이 있는 시스템을 마이그레이션할 수 있지만 Solaris 10 10/08 릴리스에서는 지원되는 구성이 제한됩니다. Solaris 10 5/09 이상 릴리스를 설치하거나 업그레이드하는 경우 보다 많은 영역 구성이 지원됩니다. 자세한 내용은 Oracle Solaris Live Upgrade를 사용하여 영역이 있는 시스템 마이그레이션 또는 업그레이드(Solaris 10 5/09 이상)를 참조하십시오.

이 단원에서는 Live Upgrade를 사용하여 업그레이드하고 패치를 적용할 수 있도록 영역이 있는 시스템을 설치하고 구성하는 방법에 대해 설명합니다. 영역이 없는 ZFS 루트 파일 시스템으로 마이그레이션하는 경우 Live Upgrade를 사용하여 영역이 없는 ZFS 루트 파일 시스템 마이그레이션 또는 업데이트를 참조하십시오.

Solaris 10 10/08 릴리스에서 영역이 있는 시스템을 마이그레이션하거나 구성하는 경우 다음 절차를 검토하십시오.

시스템에서 Live Upgrade를 사용할 수 있으려면 ZFS 루트 파일 시스템이 있는 시스템에서 영역을 설정하는 다음 권장 절차를 따르십시오.

UFS에 영역 루트가 있는 UFS 루트 파일 시스템을 ZFS 루트 파일 시스템으로 마이그레이션하는 방법(Solaris 10 10/08)

이 절차에서는 영역이 설치된 UFS 루트 파일 시스템을 업그레이드 또는 패치 적용이 가능한 ZFS 루트 파일 시스템과 ZFS 영역 루트 구성으로 마이그레이션하는 방법에 대해 설명합니다.

다음에 나오는 단계의 예에서 풀 이름은 rpool이며 활성 BE(부트 환경) 이름은 s10BE*로 시작합니다.

  1. 시스템이 이전 Solaris 10 릴리스를 실행 중인 경우 시스템을 Solaris 10 10/08 릴리스로 업그레이드합니다.

    Solaris 10 릴리스를 실행 중인 시스템을 업그레이드하는 방법은 Oracle Solaris 10 9/10 설치 설명서: Solaris Live Upgrade 및 업그레이드 계획을 참조하십시오.

  2. 루트 풀을 만듭니다.
    # zpool create rpool mirror c0t1d0 c1t1d0

    루트 풀 요구 사항에 대한 자세한 내용은 ZFS 지원을 위한 Oracle Solaris 설치 및 Live Upgrade 요구 사항을 참조하십시오.

  3. UFS 환경의 영역이 부트되었는지 확인합니다.
  4. 새 ZFS 부트 환경을 만듭니다.
    # lucreate -n s10BE2 -p rpool

    이 명령은 새 BE용 루트 풀에서 데이터 집합을 설정하며 현재 BE(영역 포함)를 해당 데이터 집합에 복사합니다.

  5. 새 ZFS 부트 환경을 활성화합니다.
    # luactivate s10BE2

    그러면 시스템이 ZFS 루트 파일 시스템을 실행하지만 UFS의 영역 루트는 UFS 루트 파일 시스템에 남아 있습니다. UFS 영역을 지원되는 ZFS 구성으로 완전히 마이그레이션하려면 다음 단계를 수행해야 합니다.

  6. 시스템을 재부트합니다.
    # init 6
  7. 영역을 ZFS BE로 마이그레이션합니다.
    1. 영역을 부트합니다.
    2. 풀에 다른 ZFS BE를 만듭니다.
      # lucreate s10BE3
    3. 새 부트 환경을 활성화합니다.
      # luactivate s10BE3
    4. 시스템을 재부트합니다.
      # init 6

      이 단계에서는 ZFS BE 및 영역이 부트되었는지 확인합니다.

  8. 잠재적인 마운트 지점 문제를 해결합니다.

    Live Upgrade의 버그로 인해 BE 내 ZFS 데이터 집합 또는 영역의 ZFS 데이터 집합에 잘못된 마운트 지점이 있을 수 있으므로 비활성 BE의 부트가 실패할 수 있습니다.

    1. zfs list 출력 결과를 검토합니다.

      잘못된 임시 마운트 지점을 검색합니다. 예를 들면 다음과 같습니다.

      # zfs list -r -o name,mountpoint rpool/ROOT/s10up
      
      NAME                               MOUNTPOINT
      rpool/ROOT/s10up                   /.alt.tmp.b-VP.mnt/
      rpool/ROOT/s10up/zones             /.alt.tmp.b-VP.mnt//zones
      rpool/ROOT/s10up/zones/zonerootA   /.alt.tmp.b-VP.mnt/zones/zonerootA

      루트 ZFS BE 마운트 지점(rpool/ROOT/s10up)은 /여야 합니다.

    2. ZFS BE 및 해당 데이터 집합에 대한 마운트 지점을 재설정합니다.

      예를 들면 다음과 같습니다.

      # zfs inherit -r mountpoint rpool/ROOT/s10up
      # zfs set mountpoint=/ rpool/ROOT/s10up
    3. 시스템을 재부트합니다.

      특정 BE를 부트할 수 있는 옵션이 표시되면 OpenBoot PROM 프롬프트 또는 GRUB 메뉴에서 마운트 지점이 수정된 BE를 선택합니다.

ZFS에 영역 루트가 있는 ZFS 루트 파일 시스템을 구성하는 방법(Solaris 10 10/08)

이 절차에서는 업그레이드 또는 패치 적용이 가능한 ZFS 루트 파일 시스템 및 ZFS 영역 루트 구성을 설정하는 방법에 대해 설명합니다. 이 구성에서는 ZFS 영역 루트가 ZFS 데이터 집합으로 만들어집니다.

다음에 나오는 단계의 예에서 풀 이름은 rpool이며 활성 부트 환경 이름은 s10BE입니다. 유효한 데이터 집합 이름을 영역 데이터 집합 이름으로 사용할 수 있습니다. 다음 예에서 영역 데이터 집합 이름은 zones입니다.

  1. 대화식 텍스트 설치 프로그램 또는 JumpStart 설치 방법을 사용하여 ZFS 루트가 있는 시스템을 설치합니다.

    선택하는 설치 방법에 따라 ZFS 루트 파일 시스템 설치(Oracle Solaris 초기 설치) 또는 ZFS 루트 파일 시스템 설치(JumpStart 설치)를 참조하십시오.

  2. 새로 만들어진 루트 풀에서 시스템을 부트합니다.
  3. 영역 루트를 그룹화할 데이터 집합을 만듭니다.

    예를 들면 다음과 같습니다.

    # zfs create -o canmount=noauto rpool/ROOT/s10BE/zones

    canmount 등록 정보에 대해 noauto 값을 설정하면 Live Upgrade의 명시적 작업 및 시스템 시작 코드 이외의 다른 방법으로는 데이터 집합이 마운트되지 않습니다.

  4. 새로 만들어진 영역 데이터 집합을 마운트합니다.
    # zfs mount rpool/ROOT/s10BE/zones

    데이터 집합이 /zones에 마운트됩니다.

  5. 각 영역 루트에 대한 데이터 집합을 만들고 마운트합니다.
    # zfs create -o canmount=noauto rpool/ROOT/s10BE/zones/zonerootA
    # zfs mount rpool/ROOT/s10BE/zones/zonerootA
  6. 영역 루트 디렉토리에 대해 적합한 권한을 설정합니다.
    # chmod 700 /zones/zonerootA
  7. 다음과 같이 영역 경로를 설정하여 영역을 구성합니다.
    # zonecfg -z zoneA
        zoneA: No such zone configured
        Use 'create' to begin configuring a new zone.
        zonecfg:zoneA> create
        zonecfg:zoneA> set zonepath=/zones/zonerootA

    다음 구문을 사용하여 시스템을 부트할 때 영역이 자동으로 부트되도록 설정할 수 있습니다.

    zonecfg:zoneA> set autoboot=true
  8. 영역을 설치합니다.
    # zoneadm -z zoneA install
  9. 영역을 부트합니다.
    # zoneadm -z zoneA boot

ZFS에 영역 루트가 있는 ZFS 루트 파일 시스템을 업그레이드하거나 패치를 적용하는 방법(Solaris 10 10/08)

ZFS에 영역 루트가 있는 ZFS 루트 파일 시스템을 업그레이드하거나 패치를 적용해야 할 경우 이 절차를 사용하십시오. 해당 업데이트는 시스템 업그레이드 또는 패치 적용으로 구성될 수 있습니다.

다음에 나오는 단계의 예에서 newBE는 업그레이드되거나 패치가 적용되는 BE의 이름입니다.

  1. 업그레이드하거나 패치를 적용할 BE를 만듭니다.
    # lucreate -n newBE

    모든 영역을 비롯하여 기존 BE가 복제됩니다. 원래 BE의 각 데이터 집합에 대한 데이터 집합이 만들어집니다. 새 데이터 집합은 현재 루트 풀과 동일한 풀에 만들어집니다.

  2. 다음 중 하나를 선택하여 시스템을 업그레이드하거나 새 BE에 패치를 적용합니다.
    • 시스템을 업그레이드합니다.

      # luupgrade -u -n newBE -s /net/install/export/s10up/latest

      여기서 -s 옵션은 Oracle Solaris 설치 매체의 위치를 지정합니다.

    • 새 BE에 패치를 적용합니다.

       # luupgrade -t -n newBE -t -s /patchdir 139147-02 157347-14
  3. 새 BE를 활성화합니다.
    # luactivate newBE
  4. 새로 활성화된 BE에서 부트합니다.
    # init 6
  5. 잠재적인 마운트 지점 문제를 해결합니다.

    Live Upgrade의 버그로 인해 BE 내 ZFS 데이터 집합 또는 영역의 ZFS 데이터 집합에 잘못된 마운트 지점이 있을 수 있으므로 비활성 BE의 부트가 실패할 수 있습니다.

    1. zfs list 출력 결과를 검토합니다.

      잘못된 임시 마운트 지점을 검색합니다. 예를 들면 다음과 같습니다.

      # zfs list -r -o name,mountpoint rpool/ROOT/newBE
      
      NAME                               MOUNTPOINT
      rpool/ROOT/newBE                   /.alt.tmp.b-VP.mnt/
      rpool/ROOT/newBE/zones             /.alt.tmp.b-VP.mnt/zones
      rpool/ROOT/newBE/zones/zonerootA   /.alt.tmp.b-VP.mnt/zones/zonerootA

      루트 ZFS BE 마운트 지점(rpool/ROOT/newBE)은 /여야 합니다.

    2. ZFS BE 및 해당 데이터 집합에 대한 마운트 지점을 재설정합니다.

      예를 들면 다음과 같습니다.

      # zfs inherit -r mountpoint rpool/ROOT/newBE
      # zfs set mountpoint=/ rpool/ROOT/newBE
    3. 시스템을 재부트합니다.

      특정 부트 환경을 부트할 수 있는 옵션이 표시되면 OpenBoot PROM 프롬프트 또는 GRUB 메뉴에서 마운트 지점이 수정된 부트 환경을 선택합니다.

Oracle Solaris Live Upgrade를 사용하여 영역이 있는 시스템 마이그레이션 또는 업그레이드(Solaris 10 5/09 이상)

Solaris 10 10/08 릴리스부터는 Oracle Solaris Live Upgrade 기능을 사용하여 영역이 있는 시스템을 마이그레이션하거나 업그레이드할 수 있습니다. Solaris 10 5/09 릴리스부터는 Live Upgrade가 추가 스파스(루트 및 전체) 영역 구성을 지원합니다.

이 단원에서는 Solaris 10 5/09 릴리스부터 Live Upgrade를 사용하여 업그레이드 및 패치 적용이 가능하도록 영역이 있는 시스템을 구성하는 방법에 대해 설명합니다. 영역이 없는 ZFS 루트 파일 시스템으로 마이그레이션하는 경우 Live Upgrade를 사용하여 영역이 없는 ZFS 루트 파일 시스템 마이그레이션 또는 업데이트를 참조하십시오.

Solaris 10 5/09 이상 릴리스부터 ZFS 및 영역과 함께 Oracle Solaris Live Upgrade를 사용할 때는 다음 사항을 고려하십시오.

Solaris 10 5/09 릴리스부터 지원되는 영역이 있는 시스템을 마이그레이션하거나 구성하는 경우 다음 정보를 검토하십시오.

지원되는 ZFS 영역 루트 구성 정보(Solaris 10 5/09 이상)

Oracle Solaris Live Upgrade를 사용하여 영역이 있는 시스템을 마이그레이션하거나 업그레이드하기 전에 지원되는 영역 구성을 검토하십시오.

ZFS 루트 파일 시스템 및 영역 루트가 있는 ZFS BE를 만드는 방법(Solaris 10 5/09 이상)

Solaris 10 5/09 이상 릴리스 초기 설치를 수행한 후 ZFS 루트 파일 시스템을 만들려면 이 절차를 사용하십시오. luupgrade 명령을 사용하여 ZFS 루트 파일 시스템을 Solaris 10 5/09 이상 릴리스로 업그레이드한 후에도 이 절차를 사용할 수 있습니다. 그런 다음 이 절차를 통해 만들어진 ZFS BE를 업그레이드하거나 패치를 적용할 수 있습니다.

다음에 나오는 단계의 예에서 Oracle Solaris 10 9/10 시스템의 /rpool/zones에는 ZFS 루트 파일 시스템과 영역 루트 데이터 집합이 있습니다. zfs2BE라는 이름의 ZFS BE가 만들어지며 이후 이 BE를 업그레이드하거나 패치를 적용할 수 있습니다.

  1. 기존 ZFS 파일 시스템을 검토합니다.
    # zfs list
    NAME                   USED  AVAIL  REFER  MOUNTPOINT
    rpool                 7.26G  59.7G    98K  /rpool
    rpool/ROOT            4.64G  59.7G    21K  legacy
    rpool/ROOT/zfsBE      4.64G  59.7G  4.64G  /
    rpool/dump            1.00G  59.7G  1.00G  -
    rpool/export            44K  59.7G    23K  /export
    rpool/export/home       21K  59.7G    21K  /export/home
    rpool/swap               1G  60.7G    16K  -
    rpool/zones            633M  59.7G   633M  /rpool/zones
  2. 영역이 설치되어 있고 부트되었는지 확인합니다.
    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       2 zfszone          running    /rpool/zones                   native   shared
  3. ZFS BE를 만듭니다.
    # lucreate -n zfs2BE
    Analyzing system configuration.
    No name for current boot environment.
    INFORMATION: The current boot environment is not named - assigning name <zfsBE>.
    Current boot environment is named <zfsBE>.
    Creating initial configuration for primary boot environment <zfsBE>.
    The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
    PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
    Comparing source boot environment <zfsBE> file systems with the file 
    system(s) you specified for the new boot environment. Determining which 
    file systems should be in the new boot environment.
    Updating boot environment description database on all BEs.
    Updating system configuration files.
    Creating configuration for boot environment <zfs2BE>.
    Source boot environment is <zfsBE>.
    Creating boot environment <zfs2BE>.
    Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>.
    Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>.
    Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>.
    Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>.
    Population of boot environment <zfs2BE> successful.
    Creation of boot environment <zfs2BE> successful.
  4. ZFS BE를 활성화합니다.
    # lustatus
    Boot Environment           Is       Active Active    Can    Copy      
    Name                       Complete Now    On Reboot Delete Status    
    -------------------------- -------- ------ --------- ------ ----------
    zfsBE                      yes      yes    yes       no     -         
    zfs2BE                     yes      no     no        yes    -         
    # luactivate zfs2BE
    A Live Upgrade Sync operation will be performed on startup of boot environment <zfs2BE>.
    .
    .
    .
  5. ZFS BE를 부트합니다.
    # init 6
  6. ZFS 파일 시스템 및 영역이 새 BE에 만들어졌는지 확인합니다.
    # zfs list
    NAME                               USED  AVAIL  REFER  MOUNTPOINT
    rpool                             7.38G  59.6G    98K  /rpool
    rpool/ROOT                        4.72G  59.6G    21K  legacy
    rpool/ROOT/zfs2BE                 4.72G  59.6G  4.64G  /
    rpool/ROOT/zfs2BE@zfs2BE          74.0M      -  4.64G  -
    rpool/ROOT/zfsBE                  5.45M  59.6G  4.64G  /.alt.zfsBE
    rpool/dump                        1.00G  59.6G  1.00G  -
    rpool/export                        44K  59.6G    23K  /export
    rpool/export/home                   21K  59.6G    21K  /export/home
    rpool/swap                           1G  60.6G    16K  -
    rpool/zones                       17.2M  59.6G   633M  /rpool/zones
    rpool/zones-zfsBE                  653M  59.6G   633M  /rpool/zones-zfsBE
    rpool/zones-zfsBE@zfs2BE          19.9M      -   633M  -
    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       - zfszone          installed  /rpool/zones                   native   shared

영역 루트가 있는 ZFS 루트 파일 시스템을 업그레이드하거나 패치를 적용하는 방법(Solaris 10 5/09 이상)

Solaris 10 5/09 이상 릴리스에서 영역 루트가 있는 ZFS 루트 파일 시스템을 업그레이드하거나 패치를 적용해야 할 경우 이 절차를 사용하십시오. 해당 업데이트는 시스템 업그레이드 또는 패치 적용으로 구성될 수 있습니다.

다음에 나오는 단계의 예에서 zfs2BE는 업그레이드되거나 패치가 적용되는 BE의 이름입니다.

  1. 기존 ZFS 파일 시스템을 검토합니다.
    # zfs list
    NAME                               USED  AVAIL  REFER  MOUNTPOINT
    rpool                             7.38G  59.6G   100K  /rpool
    rpool/ROOT                        4.72G  59.6G    21K  legacy
    rpool/ROOT/zfs2BE                 4.72G  59.6G  4.64G  /
    rpool/ROOT/zfs2BE@zfs2BE          75.0M      -  4.64G  -
    rpool/ROOT/zfsBE                  5.46M  59.6G  4.64G  /
    rpool/dump                        1.00G  59.6G  1.00G  -
    rpool/export                        44K  59.6G    23K  /export
    rpool/export/home                   21K  59.6G    21K  /export/home
    rpool/swap                           1G  60.6G    16K  -
    rpool/zones                       22.9M  59.6G   637M  /rpool/zones
    rpool/zones-zfsBE                  653M  59.6G   633M  /rpool/zones-zfsBE
    rpool/zones-zfsBE@zfs2BE          20.0M      -   633M  -
  2. 영역이 설치되어 있고 부트되었는지 확인합니다.
    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       5 zfszone          running    /rpool/zones                   native   shared
  3. 업그레이드하거나 패치를 적용할 ZFS BE를 만듭니다.
    # lucreate -n zfs2BE
    Analyzing system configuration.
    Comparing source boot environment <zfsBE> file systems with the file 
    system(s) you specified for the new boot environment. Determining which 
    file systems should be in the new boot environment.
    Updating boot environment description database on all BEs.
    Updating system configuration files.
    Creating configuration for boot environment <zfs2BE>.
    Source boot environment is <zfsBE>.
    Creating boot environment <zfs2BE>.
    Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>.
    Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>.
    Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>.
    Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>.
    Creating snapshot for <rpool/zones> on <rpool/zones@zfs10092BE>.
    Creating clone for <rpool/zones@zfs2BE> on <rpool/zones-zfs2BE>.
    Population of boot environment <zfs2BE> successful.
    Creation of boot environment <zfs2BE> successful.
  4. 다음 중 하나를 선택하여 시스템을 업그레이드하거나 새 BE에 패치를 적용합니다.
    • 시스템을 업그레이드합니다.

      # luupgrade -u -n zfs2BE -s /net/install/export/s10up/latest

      여기서 -s 옵션은 Oracle Solaris 설치 매체의 위치를 지정합니다.

      이 프로세스는 매우 오래 걸릴 수 있습니다.

      luupgrade 프로세스의 전체 예는 예 5-9를 참조하십시오.

    • 새 BE에 패치를 적용합니다.

      # luupgrade -t -n zfs2BE -t -s /patchdir patch-id-02 patch-id-04
  5. 새 부트 환경을 활성화합니다.
    # lustatus
    Boot Environment           Is       Active Active    Can    Copy      
    Name                       Complete Now    On Reboot Delete Status    
    -------------------------- -------- ------ --------- ------ ----------
    zfsBE                      yes      yes    yes       no     -         
    zfs2BE                     yes      no     no        yes    -    
    # luactivate zfs2BE
    A Live Upgrade Sync operation will be performed on startup of boot environment <zfs2BE>.
    .
    .
    .
  6. 새로 활성화된 부트 환경에서 부트합니다.
    # init 6

예 5-9 영역 루트가 있는 ZFS 루트 파일 시스템을 Oracle Solaris 10 9/10 ZFS 루트 파일 시스템으로 업그레이드

이 예에서는 비루트 풀에 ZFS 루트 파일 시스템 및 영역 루트가 있는 Solaris 10 10/09 시스템에서 만들어진 ZFS BE(zfsBE)가 Oracle Solaris 10 9/10 릴리스로 업그레이드됩니다. 이 프로세스는 오래 걸릴 수 있습니다. 그런 다음 업그레이드된 BE(zfs2BE)가 활성화됩니다. 업그레이드를 시도하기 전에 영역이 설치되어 있고 부트되었는지 확인하십시오.

이 예에서는 zonepool 풀, /zonepool/zones 데이터 집합 및 zfszone 영역이 다음과 같이 만들어집니다.

# zpool create zonepool mirror c2t1d0 c2t5d0
# zfs create zonepool/zones
# chmod 700 zonepool/zones
# zonecfg -z zfszone
zfszone: No such zone configured
Use 'create' to begin configuring a new zone.
zonecfg:zfszone> create
zonecfg:zfszone> set zonepath=/zonepool/zones
zonecfg:zfszone> verify
zonecfg:zfszone> exit
# zoneadm -z zfszone install
cannot create ZFS dataset zonepool/zones: dataset already exists
Preparing to install zone <zfszone>.
Creating list of files to copy from the global zone.
Copying <8960> files to the zone.
.
.
.
# zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   2 zfszone          running    /zonepool/zones                native   shared

# lucreate -n zfsBE
.
.
.
# luupgrade -u -n zfsBE -s /net/install/export/s10up/latest
40410 blocks
miniroot filesystem is <lofs>
Mounting miniroot at </net/system/export/s10up/latest/Solaris_10/Tools/Boot>
Validating the contents of the media </net/system/export/s10up/latest>.
The media is a standard Solaris media.
The media contains an operating system upgrade image.
The media contains <Solaris> version <10>.
Constructing upgrade profile to use.
Locating the operating system upgrade program.
Checking for existence of previously scheduled Live Upgrade requests.
Creating upgrade profile for BE <zfsBE>.
Determining packages to install or upgrade for BE <zfsBE>.
Performing the operating system upgrade of the BE <zfsBE>.
CAUTION: Interrupting this process may leave the boot environment unstable 
or unbootable.
Upgrading Solaris: 100% completed
Installation of the packages from this media is complete.
Updating package information on boot environment <zfsBE>.
Package information successfully updated on boot environment <zfsBE>.
Adding operating system patches to the BE <zfsBE>.
The operating system patch installation is complete.
INFORMATION: The file </var/sadm/system/logs/upgrade_log> on boot 
environment <zfsBE> contains a log of the upgrade operation.
INFORMATION: The file </var/sadm/system/data/upgrade_cleanup> on boot 
environment <zfsBE> contains a log of cleanup operations required.
INFORMATION: Review the files listed above. Remember that all of the files 
are located on boot environment <zfsBE>. Before you activate boot 
environment <zfsBE>, determine if any additional system maintenance is 
required or if additional media of the software distribution must be 
installed.
The Solaris upgrade of the boot environment <zfsBE> is complete.
Installing failsafe
Failsafe install is complete.
# luactivate zfs2BE
# init 6
# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
zfsBE                      yes      no     no        yes    -         
zfs2BE                     yes      yes    yes       no     -         
# zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   - zfszone          installed  /zonepool/zones                native   shared

영역 루트가 있는 UFS 루트 파일 시스템을 ZFS 루트 파일 시스템으로 마이그레이션하는 방법(Solaris 10 5/09 이상)

UFS 루트 파일 시스템 및 영역 루트가 있는 시스템을 Solaris 10 5/09 이상 릴리스로 마이그레이션하려면 이 절차를 사용하십시오. 그런 다음 Live Upgrade를 사용하여 ZFS BE를 만드십시오.

다음에 나오는 단계의 예에서 UFS BE 이름은 c1t1d0s0, UFS 영역 루트는 zonepool/zfszone, ZFS 루트 BE는 zfsBE입니다.

  1. 시스템이 이전 Solaris 10 릴리스를 실행 중인 경우 시스템을 Solaris 10 5/09 이상 릴리스로 업그레이드합니다.

    Solaris 10 릴리스를 실행 중인 시스템을 업그레이드하는 방법은 Oracle Solaris 10 9/10 설치 설명서: Solaris Live Upgrade 및 업그레이드 계획을 참조하십시오.

  2. 루트 풀을 만듭니다.

    루트 풀 요구 사항에 대한 자세한 내용은 ZFS 지원을 위한 Oracle Solaris 설치 및 Live Upgrade 요구 사항을 참조하십시오.

  3. UFS 환경의 영역이 부트되었는지 확인합니다.
    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       2 zfszone          running    /zonepool/zones                native   shared
  4. 새 ZFS BE를 만듭니다.
    # lucreate -c c1t1d0s0 -n zfsBE -p rpool

    이 명령은 새 BE용 루트 풀에서 데이터 집합을 설정하며 현재 BE(영역 포함)를 해당 데이터 집합에 복사합니다.

  5. 새 ZFS BE를 활성화합니다.
    # lustatus
    Boot Environment           Is       Active Active    Can    Copy      
    Name                       Complete Now    On Reboot Delete Status    
    -------------------------- -------- ------ --------- ------ ----------
    c1t1d0s0                   yes      no     no        yes    -         
    zfsBE                      yes      yes    yes       no     -         #
    luactivate zfsBE       
    A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>.
    .
    .
    .
  6. 시스템을 재부트합니다.
    # init 6
  7. ZFS 파일 시스템 및 영역이 새 BE에 만들어졌는지 확인합니다.
    # zfs list
    NAME                                USED  AVAIL  REFER  MOUNTPOINT
    rpool                              6.17G  60.8G    98K  /rpool
    rpool/ROOT                         4.67G  60.8G    21K  /rpool/ROOT
    rpool/ROOT/zfsBE                   4.67G  60.8G  4.67G  /
    rpool/dump                         1.00G  60.8G  1.00G  -
    rpool/swap                          517M  61.3G    16K  -
    zonepool                            634M  7.62G    24K  /zonepool
    zonepool/zones                      270K  7.62G   633M  /zonepool/zones
    zonepool/zones-c1t1d0s0             634M  7.62G   633M  /zonepool/zones-c1t1d0s0
    zonepool/zones-c1t1d0s0@zfsBE       262K      -   633M  -
    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       - zfszone          installed  /zonepool/zones                native   shared

예 5-10 영역 루트가 있는 UFS 루트 파일 시스템을 ZFS 루트 파일 시스템으로 마이그레이션

이 예에서는 UFS 루트 파일 시스템 및 영역 루트(/uzone/ufszone)를 비롯하여 ZFS 비루트 풀(pool) 및 영역 루트(/pool/zfszone )가 있는 Oracle Solaris 10 9/10이 ZFS 루트 파일 시스템으로 마이그레이션됩니다. 마이그레이션을 시도하기 전에 ZFS 루트 풀이 만들어졌으며 영역이 설치되어 있고 부트되었는지 확인하십시오.

# zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   2 ufszone          running    /uzone/ufszone                 native   shared
   3 zfszone          running    /pool/zones/zfszone            native   shared
# lucreate -c ufsBE -n zfsBE -p rpool
Analyzing system configuration.
No name for current boot environment.
Current boot environment is named <zfsBE>.
Creating initial configuration for primary boot environment <zfsBE>.
The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
PBE configuration successful: PBE name <ufsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
Comparing source boot environment <ufsBE> file systems with the file 
system(s) you specified for the new boot environment. Determining which 
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID.
Creating configuration for boot environment <zfsBE>.
Source boot environment is <ufsBE>.
Creating boot environment <zfsBE>.
Creating file systems on boot environment <zfsBE>.
Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>.
Populating file systems on boot environment <zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Copying root of zone <ufszone> to </.alt.tmp.b-EYd.mnt/uzone/ufszone>.
Creating snapshot for <pool/zones/zfszone> on <pool/zones/zfszone@zfsBE>.
Creating clone for <pool/zones/zfszone@zfsBE> on <pool/zones/zfszone-zfsBE>.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </rpool/ROOT>.
Creating compare database for file system </>.
Updating compare databases on boot environment <zfsBE>.
Making boot environment <zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-DLd.mnt
updating /.alt.tmp.b-DLd.mnt/platform/sun4u/boot_archive
Population of boot environment <zfsBE> successful.
Creation of boot environment <zfsBE> successful.
# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
ufsBE                      yes      yes    yes       no     -         
zfsBE                      yes      no     no        yes    -         
# luactivate zfsBE    
.
.
.
# init 6
.
.
.
# zfs list
NAME                                    USED  AVAIL  REFER  MOUNTPOINT
pool                                    628M  66.3G    19K  /pool
pool/zones                              628M  66.3G    20K  /pool/zones
pool/zones/zfszone                     75.5K  66.3G   627M  /pool/zones/zfszone
pool/zones/zfszone-ufsBE                628M  66.3G   627M  /pool/zones/zfszone-ufsBE
pool/zones/zfszone-ufsBE@zfsBE           98K      -   627M  -
rpool                                  7.76G  59.2G    95K  /rpool
rpool/ROOT                             5.25G  59.2G    18K  /rpool/ROOT
rpool/ROOT/zfsBE                       5.25G  59.2G  5.25G  /
rpool/dump                             2.00G  59.2G  2.00G  -
rpool/swap                              517M  59.7G    16K  -
# zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   - ufszone          installed  /uzone/ufszone                 native   shared
   - zfszone          installed  /pool/zones/zfszone            native   shared