JavaScript is required to for searching.
탐색 링크 건너뛰기
인쇄 보기 종료
Oracle Solaris 10 1/13 설치 설명서: Live Upgrade 및 업그레이드 계획     Oracle Solaris 10 1/13 Information Library (한국어)
search filter icon
search icon

문서 정보

머리말

제1부Live Upgrade를 사용하여 업그레이드

1.  Oracle Solaris 설치 계획 정보 위치

2.  Live Upgrade(개요)

3.  Live Upgrade(계획)

4.  Live Upgrade를 사용하여 부트 환경 만들기(작업)

5.  Live Upgrade를 통해 업그레이드(작업)

6.  오류 복구: 원래 부트 환경으로 폴백(작업)

7.  Live Upgrade 부트 환경 유지 관리(작업)

8.  비전역 영역이 설치된 시스템에서 Oracle Solaris OS 업그레이드

9.  Live Upgrade 예

제2부Live Upgrade를 사용하여 업그레이드 및 ZFS 루트 풀로 마이그레이션

10.  Live Upgrade 및 ZFS(개요)

11.  ZFS용 Live Upgrade(계획)

12.  ZFS 루트 풀의 부트 환경 만들기

UFS 파일 시스템을 ZFS 파일 시스템으로 마이그레이션

UFS 파일 시스템에서 ZFS 파일 시스템으로 마이그레이션하는 방법

동일한 ZFS 루트 풀 내에 부트 환경 만들기

동일한 ZFS 루트 풀 내에서 ZFS 부트 환경을 만드는 방법

새 루트 풀에 부트 환경 만들기

새 ZFS 루트 풀에 부트 환경을 만드는 방법

현재 실행 중인 시스템 이외의 소스에서 부트 환경 만들기

ZFS 부트 환경으로 폴백

13.  비전역 영역이 설치된 ZFS용 Live Upgrade

제3부부록

A.  Live Upgrade 명령 참조

B.  문제 해결(작업)

C.  추가 SVR4 패키지 요구 사항(참조)

D.  업그레이드할 때 패치 분석기 사용(작업)

용어집

색인

새 루트 풀에 부트 환경 만들기

기존 ZFS 루트 풀이 있지만 새 루트 풀에서 새 ZFS 부트 환경을 만들려는 경우 다음 절차에서 제공하는 해당 단계를 참조하십시오. 비활성 부트 환경을 만든 후에는 편리한 시간에 새 부트 환경을 업그레이드하고 활성화할 수 있습니다. 새 부트 환경을 배치하는 위치를 참조하려면 -p 옵션이 필요합니다. 기존 ZFS 루트 풀이 있어야 하며, 부트 가능하고 업그레이드 가능하도록 개별 슬라이스에 있어야 합니다.

새 ZFS 루트 풀에 부트 환경을 만드는 방법

  1. 처음으로 Live Upgrade를 실행하기 전에 설치 매체에서 최신 Live Upgrade 패키지를 설치하고 지식 문서에 나열된 패치를 설치해야 합니다. My Oracle Support 웹 사이트에서 지식 문서 1004881.1 - Live Upgrade 소프트웨어 패치 요구 사항(이전의 206844)을 검색하십시오.

    최신 패키지 및 패치를 설치하면 릴리스에 모든 최신 버그 수정과 새로운 기능이 포함됩니다. 새 부트 환경 만들기를 진행하기 전에 시스템과 관련된 모든 패치를 설치해야 합니다.

    다음 하위 단계에서는 My Oracle Support에 있는 지식 문서 1004881.1 - Live Upgrade 소프트웨어 패치 요구 사항(이전의 206844)의 단계에 대해 설명합니다.


    주 - Live Upgrade를 사용하여 새 ZFS 부트 환경을 만들려면 최소한 Solaris 10 10/08 릴리스가 설치되어 있어야 합니다. 이전 릴리스에는 작업을 수행할 수 있는 ZFS 및 Live Upgrade 소프트웨어가 없습니다.


    1. 수퍼유저 또는 동등한 역할의 사용자로 로그인합니다.

      주 - 역할에는 권한 부여 및 권한이 있는 명령이 포함됩니다. 역할에 대한 자세한 내용은 System Administration Guide: Security Services의 Configuring RBAC (Task Map)를 참조하십시오.


    2. My Oracle Support 웹 사이트에서 지식 문서 1004881.1의 지침에 따라 Live Upgrade 패키지를 제거한 후 추가합니다.

      3개의 Live Upgrade 패키지인 SUNWluu, SUNWlurSUNWlucfg가 Live Upgrade를 사용하여 업그레이드하기 위해 필요한 소프트웨어를 구성합니다. 이들 패키지는 기존 소프트웨어, 새 기능, 버그 수정 등을 포함합니다. 기존 패키지를 제거하지 않고 Live Upgrade를 사용하기 전에 시스템에 새 패키지를 설치한 경우에는 대상 릴리스로의 업그레이드가 실패합니다. SUMWlucfg 패키지는 Solaris 10 8/07 릴리스부터 지원되는 새로운 기능입니다. Solaris 10 8/07 이전 릴리스의 Live Upgrade 패키지를 사용하는 경우에는 이 패키지를 제거하지 않아도 됩니다.


      주 - SUMWlucfg 패키지는 Solaris 10 8/07 릴리스부터 지원되는 새로운 기능입니다. 이전 릴리스의 Live Upgrade 패키지를 사용하는 경우에는 이 패키지를 제거하지 않아도 됩니다.


      # pkgrm SUNWlucfg SUNWluu SUNWlur
    3. 새 Live Upgrade 패키지를 설치합니다. 자세한 내용은 Live Upgrade 설치를 참조하십시오.
    4. Live Upgrade를 실행하기 전에 다음 패치를 설치해야 합니다. 이러한 패치에서는 최신 버그 수정과 릴리스의 새로운 기능을 설치합니다.

      My Oracle Support에 문의하여 가장 최근에 업데이트된 패치 목록이 있는지 확인하십시오. My Oracle Support에서 지식 문서 1004881.1 - Live Upgrade 소프트웨어 패치 요구 사항(이전의 206844)을 검색하십시오.

      • 패치를 로컬 디스크에 저장하려는 경우에는 /var/tmp/lupatches와 같은 디렉토리를 만들고 해당 디렉토리로 패치를 다운로드합니다.

      • My Oracle Support 웹 사이트에서 패치 목록을 얻습니다.

      • 이 예에서처럼 패치 디렉토리를 변경합니다.

        # cd /var/tmp/lupatches
      • patchadd 명령을 사용하여 패치를 설치합니다.

        # patchadd -M path-to-patches patch_id patch_id

        path-to-patches는 패치 디렉토리의 경로(예: /var/tmp/lupatches)입니다. patch_id는 패치 번호입니다. 공백을 사용하여 여러 패치 이름을 구분합니다.


        주 - My Oracle Support의 지식 문서 1004881.1 - Live Upgrade 소프트웨어 패치 요구 사항(이전의 206844)에 지정된 순서대로 패치를 적용해야 합니다.


      • 필요한 경우 시스템을 재부트합니다. 특정 패치는 재부트해야만 적용됩니다.

        x86에만 해당: 시스템을 재부트해야 하며, 그렇지 않으면 Live Upgrade가 실패합니다.

        # init 6

        이제 성공적으로 마이그레이션하는 데 필요한 패키지 및 패치가 설치되었습니다.

  2. ZFS 루트 풀을 만듭니다.

    ZFS 루트 풀은 부트 가능하고 업그레이드 가능하도록 단일 슬라이스에 있어야 합니다.

    # zpool create rpool2 c0t1d0s5
    rpool2

    새 ZFS 루트 풀의 이름입니다.

    c0t1d0s5

    부트 가능 슬라이스 c0t1d0s5rpool2를 배치하도록 지정합니다.

    새 루트 풀 만들기에 대한 자세한 내용은 Oracle Solaris ZFS 관리 설명서를 참조하십시오.

  3. 새 부트 환경을 만듭니다.
    # lucreate [-c zfsBE] -n new-zfsBE -p rpool2
    zfsBE

    현재 ZFS 부트 환경의 이름입니다.

    new-zfsBE

    만들 부트 환경의 이름입니다. 이름은 시스템에서 고유해야 합니다.

    -p rpool2

    새로 만든 ZFS 루트 부트 환경을 rpool2에 정의된 ZFS 루트 풀에 배치합니다.

    새 ZFS 부트 환경을 만들 때 약간 시간이 걸릴 수도 있습니다. 파일 시스템 데이터는 새 ZFS 루트 풀로 복사됩니다. 비활성 부트 환경이 만들어지면 luupgrade 또는 luactivate 명령을 사용하여 새 ZFS 부트 환경을 업그레이드하거나 활성화할 수 있습니다.

  4. (선택 사항) 부트 환경이 완전한지 확인합니다.

    lustatus 명령은 부트 환경 만들기가 완료되었고 부트 가능한지 보고합니다.

    # lustatus
    boot environment   Is        Active  Active     Can        Copy 
    Name               Complete  Now     OnReboot   Delete     Status 
    ------------------------------------------------------------------------ 
    zfsBE                       yes      yes     yes        no        - 
    new-zfsBE                   yes      no      no         yes        -
  5. (선택 사항) 시스템에서 기본 데이터 세트 정보를 확인합니다.

    다음 예에서는 시스템에 모든 데이터 세트 이름을 표시합니다. 새 부트 환경에 대해 나열된 마운트 지점은 luactivate 명령이 실행될 때까지 임시로 사용됩니다. 새 부트 환경은 볼륨 rpool2/dumprpool2/swaprpool2 ZFS 부트 환경과 공유합니다.

    # zfs list
    NAME                                   USED  AVAIL  REFER  MOUNTPOINT
    rpool                                     11.4G  2.95G    31K  /rpool
    rpool/ROOT                                4.34G  2.95G    31K  legacy
    rpool/ROOT/new-zfsBE                      4.34G  2.95G  4.34G  /
    rpool/dump                                2.06G  5.02G    16K  -
    rpool/swap                                5.04G  7.99G    16K  -

    이제 새 부트 환경을 업그레이드하고 활성화할 수 있습니다.

예 12-3 새 루트 풀에 부트 환경 만들기

이 예에서 새 ZFS 루트 풀인 newPool은 별도의 슬라이스 c0t1s0s5에 만들어집니다. lucreate 명령은 새 ZFS 부트 환경 new-zfsbe를 만듭니다. 부트 환경이 서로 다른 루트 풀 내에 만들어지므로 -p 옵션이 필요합니다.

# zpool create newPool C0t2d0s5
# zfs list
NAME                                   USED  AVAIL  REFER  MOUNTPOINT
newPool                          92.5K  18.7G    31K  /newPool 
rpool                                     11.4G  2.95G    31K  /rpool
rpool/ROOT                                4.34G  2.95G    31K  legacy
rpool/ROOT/zfsBE                      4.34G  2.95G  4.34G  /
rpool/dump                                2.06G  5.02G    16K  -
rpool/swap                                5.04G  7.99G    16K  -
# lucreate -c c0t1d0s5 -n new-zfsbe -p newPool 
Checking GRUB menu...
Analyzing system configuration.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID.
Creating configuration for boot environment <new-zfsbe>.
Source boot environment is <c0t1d0s5>.
Creating file systems on boot environment <new-zfsbe>.
Creating <zfs> file system for </> in zone <global> on <newPool/ROOT/new-zfsbe>.
Populating file systems on boot environment <new-zfsbe>.
Analyzing zones.
Mounting ABE <new-zfsbe>.
Generating file list.
Copying data from PBE <c0t1d0s5> to ABE <new-zfsbe>.
100% of filenames transferred
Finalizing ABE.
Fixing zonepaths in ABE.
Unmounting ABE <new-zfsbe>.
Fixing properties on ZFS datasets in ABE.
Reverting state of zones in PBE <c0t1d0s5>.
Making boot environment <new-zfsbe> bootable.
Updating bootenv.rc on ABE <new-zfsbe>.
Saving existing file </boot/grub/menu.lst> in top level dataset for BE <new-zfsBE> as <mount-point>//boot/grub/menu.lst.prev.
File </boot/grub/menu.lst> propagation successful
Copied GRUB menu from PBE to ABE
No entry for BE <new-zfsbe> in GRUB menu
Population of boot environment <new-zfsbe> successful.
Creation of boot environment <new-zfsbe> successful. 
# lustatus
Boot Environment           Is       Active Active    Can    Copy
Name                       Complete Now    On Reboot Delete Status
-------------------------- -------- ------ --------- ------ ----------
c0t0d0                     yes      yes    yes       no     -
zfsBE                            yes      no     no        yes    -
new-zfsbe                  yes      no     no        yes    -

# zfs list
NAME                                   USED  AVAIL  REFER  MOUNTPOINT
newPool                               7.15G  11.6G    36K  /newPool
newPool/ROOT                          4.05G  11.6G    31K  legacy
newPool/ROOT/new-zfsbe                4.05G  11.6G  4.05G  /
newPool/dump                          1.03G  12.6G    16K  -
newPool/swap                          2.06G  13.6G    16K  -
rpool                                             11.4G  2.95G    31K  /rpool
rpool/ROOT                                        4.34G  2.95G    31K  legacy
rpool/ROOT/zfsBE                                  4.34G  2.95G  4.34G  /
rpool/dump                                        2.06G  5.02G    16K  -
rpool/swap                                        5.04G  7.99G    16K  -