탐색 링크 건너뛰기 | |
인쇄 보기 종료 | |
![]() |
Oracle Solaris 10 1/13 설치 설명서: Live Upgrade 및 업그레이드 계획 Oracle Solaris 10 1/13 Information Library (한국어) |
4. Live Upgrade를 사용하여 부트 환경 만들기(작업)
7. Live Upgrade 부트 환경 유지 관리(작업)
8. 비전역 영역이 설치된 시스템에서 Oracle Solaris OS 업그레이드
제2부Live Upgrade를 사용하여 업그레이드 및 ZFS 루트 풀로 마이그레이션
UFS 파일 시스템을 ZFS 파일 시스템으로 마이그레이션
UFS 파일 시스템에서 ZFS 파일 시스템으로 마이그레이션하는 방법
동일한 ZFS 루트 풀 내에서 ZFS 부트 환경을 만드는 방법
현재 실행 중인 시스템 이외의 소스에서 부트 환경 만들기
기존 ZFS 루트 풀이 있지만 새 루트 풀에서 새 ZFS 부트 환경을 만들려는 경우 다음 절차에서 제공하는 해당 단계를 참조하십시오. 비활성 부트 환경을 만든 후에는 편리한 시간에 새 부트 환경을 업그레이드하고 활성화할 수 있습니다. 새 부트 환경을 배치하는 위치를 참조하려면 -p 옵션이 필요합니다. 기존 ZFS 루트 풀이 있어야 하며, 부트 가능하고 업그레이드 가능하도록 개별 슬라이스에 있어야 합니다.
최신 패키지 및 패치를 설치하면 릴리스에 모든 최신 버그 수정과 새로운 기능이 포함됩니다. 새 부트 환경 만들기를 진행하기 전에 시스템과 관련된 모든 패치를 설치해야 합니다.
다음 하위 단계에서는 My Oracle Support에 있는 지식 문서 1004881.1 - Live Upgrade 소프트웨어 패치 요구 사항(이전의 206844)의 단계에 대해 설명합니다.
주 - Live Upgrade를 사용하여 새 ZFS 부트 환경을 만들려면 최소한 Solaris 10 10/08 릴리스가 설치되어 있어야 합니다. 이전 릴리스에는 작업을 수행할 수 있는 ZFS 및 Live Upgrade 소프트웨어가 없습니다.
주 - 역할에는 권한 부여 및 권한이 있는 명령이 포함됩니다. 역할에 대한 자세한 내용은 System Administration Guide: Security Services의 Configuring RBAC (Task Map)를 참조하십시오.
3개의 Live Upgrade 패키지인 SUNWluu, SUNWlur 및 SUNWlucfg가 Live Upgrade를 사용하여 업그레이드하기 위해 필요한 소프트웨어를 구성합니다. 이들 패키지는 기존 소프트웨어, 새 기능, 버그 수정 등을 포함합니다. 기존 패키지를 제거하지 않고 Live Upgrade를 사용하기 전에 시스템에 새 패키지를 설치한 경우에는 대상 릴리스로의 업그레이드가 실패합니다. SUMWlucfg 패키지는 Solaris 10 8/07 릴리스부터 지원되는 새로운 기능입니다. Solaris 10 8/07 이전 릴리스의 Live Upgrade 패키지를 사용하는 경우에는 이 패키지를 제거하지 않아도 됩니다.
주 - SUMWlucfg 패키지는 Solaris 10 8/07 릴리스부터 지원되는 새로운 기능입니다. 이전 릴리스의 Live Upgrade 패키지를 사용하는 경우에는 이 패키지를 제거하지 않아도 됩니다.
# pkgrm SUNWlucfg SUNWluu SUNWlur
My Oracle Support에 문의하여 가장 최근에 업데이트된 패치 목록이 있는지 확인하십시오. My Oracle Support에서 지식 문서 1004881.1 - Live Upgrade 소프트웨어 패치 요구 사항(이전의 206844)을 검색하십시오.
패치를 로컬 디스크에 저장하려는 경우에는 /var/tmp/lupatches와 같은 디렉토리를 만들고 해당 디렉토리로 패치를 다운로드합니다.
My Oracle Support 웹 사이트에서 패치 목록을 얻습니다.
이 예에서처럼 패치 디렉토리를 변경합니다.
# cd /var/tmp/lupatches
patchadd 명령을 사용하여 패치를 설치합니다.
# patchadd -M path-to-patches patch_id patch_id
path-to-patches는 패치 디렉토리의 경로(예: /var/tmp/lupatches)입니다. patch_id는 패치 번호입니다. 공백을 사용하여 여러 패치 이름을 구분합니다.
주 - My Oracle Support의 지식 문서 1004881.1 - Live Upgrade 소프트웨어 패치 요구 사항(이전의 206844)에 지정된 순서대로 패치를 적용해야 합니다.
필요한 경우 시스템을 재부트합니다. 특정 패치는 재부트해야만 적용됩니다.
x86에만 해당: 시스템을 재부트해야 하며, 그렇지 않으면 Live Upgrade가 실패합니다.
# init 6
이제 성공적으로 마이그레이션하는 데 필요한 패키지 및 패치가 설치되었습니다.
ZFS 루트 풀은 부트 가능하고 업그레이드 가능하도록 단일 슬라이스에 있어야 합니다.
# zpool create rpool2 c0t1d0s5
새 ZFS 루트 풀의 이름입니다.
부트 가능 슬라이스 c0t1d0s5에 rpool2를 배치하도록 지정합니다.
새 루트 풀 만들기에 대한 자세한 내용은 Oracle Solaris ZFS 관리 설명서를 참조하십시오.
# lucreate [-c zfsBE] -n new-zfsBE -p rpool2
현재 ZFS 부트 환경의 이름입니다.
만들 부트 환경의 이름입니다. 이름은 시스템에서 고유해야 합니다.
새로 만든 ZFS 루트 부트 환경을 rpool2에 정의된 ZFS 루트 풀에 배치합니다.
새 ZFS 부트 환경을 만들 때 약간 시간이 걸릴 수도 있습니다. 파일 시스템 데이터는 새 ZFS 루트 풀로 복사됩니다. 비활성 부트 환경이 만들어지면 luupgrade 또는 luactivate 명령을 사용하여 새 ZFS 부트 환경을 업그레이드하거나 활성화할 수 있습니다.
lustatus 명령은 부트 환경 만들기가 완료되었고 부트 가능한지 보고합니다.
# lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes -
다음 예에서는 시스템에 모든 데이터 세트 이름을 표시합니다. 새 부트 환경에 대해 나열된 마운트 지점은 luactivate 명령이 실행될 때까지 임시로 사용됩니다. 새 부트 환경은 볼륨 rpool2/dump 및 rpool2/swap을 rpool2 ZFS 부트 환경과 공유합니다.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 11.4G 2.95G 31K /rpool rpool/ROOT 4.34G 2.95G 31K legacy rpool/ROOT/new-zfsBE 4.34G 2.95G 4.34G / rpool/dump 2.06G 5.02G 16K - rpool/swap 5.04G 7.99G 16K -
이제 새 부트 환경을 업그레이드하고 활성화할 수 있습니다.
예 12-3 새 루트 풀에 부트 환경 만들기
이 예에서 새 ZFS 루트 풀인 newPool은 별도의 슬라이스 c0t1s0s5에 만들어집니다. lucreate 명령은 새 ZFS 부트 환경 new-zfsbe를 만듭니다. 부트 환경이 서로 다른 루트 풀 내에 만들어지므로 -p 옵션이 필요합니다.
# zpool create newPool C0t2d0s5 # zfs list NAME USED AVAIL REFER MOUNTPOINT newPool 92.5K 18.7G 31K /newPool rpool 11.4G 2.95G 31K /rpool rpool/ROOT 4.34G 2.95G 31K legacy rpool/ROOT/zfsBE 4.34G 2.95G 4.34G / rpool/dump 2.06G 5.02G 16K - rpool/swap 5.04G 7.99G 16K - # lucreate -c c0t1d0s5 -n new-zfsbe -p newPool Checking GRUB menu... Analyzing system configuration. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <new-zfsbe>. Source boot environment is <c0t1d0s5>. Creating file systems on boot environment <new-zfsbe>. Creating <zfs> file system for </> in zone <global> on <newPool/ROOT/new-zfsbe>. Populating file systems on boot environment <new-zfsbe>. Analyzing zones. Mounting ABE <new-zfsbe>. Generating file list. Copying data from PBE <c0t1d0s5> to ABE <new-zfsbe>. 100% of filenames transferred Finalizing ABE. Fixing zonepaths in ABE. Unmounting ABE <new-zfsbe>. Fixing properties on ZFS datasets in ABE. Reverting state of zones in PBE <c0t1d0s5>. Making boot environment <new-zfsbe> bootable. Updating bootenv.rc on ABE <new-zfsbe>. Saving existing file </boot/grub/menu.lst> in top level dataset for BE <new-zfsBE> as <mount-point>//boot/grub/menu.lst.prev. File </boot/grub/menu.lst> propagation successful Copied GRUB menu from PBE to ABE No entry for BE <new-zfsbe> in GRUB menu Population of boot environment <new-zfsbe> successful. Creation of boot environment <new-zfsbe> successful. # lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- c0t0d0 yes yes yes no - zfsBE yes no no yes - new-zfsbe yes no no yes - # zfs list NAME USED AVAIL REFER MOUNTPOINT newPool 7.15G 11.6G 36K /newPool newPool/ROOT 4.05G 11.6G 31K legacy newPool/ROOT/new-zfsbe 4.05G 11.6G 4.05G / newPool/dump 1.03G 12.6G 16K - newPool/swap 2.06G 13.6G 16K - rpool 11.4G 2.95G 31K /rpool rpool/ROOT 4.34G 2.95G 31K legacy rpool/ROOT/zfsBE 4.34G 2.95G 4.34G / rpool/dump 2.06G 5.02G 16K - rpool/swap 5.04G 7.99G 16K -