기존 ZFS 루트 풀이 있으며 해당 풀 내에서 새 ZFS 부트 환경을 만들려는 경우 다음 절차에서 제공하는 해당 단계를 참조하십시오. 비활성 부트 환경을 만든 후에는 편리한 시간에 새 부트 환경을 업그레이드하고 활성화할 수 있습니다. 동일한 풀 내에 부트 환경을 만드는 경우에는 -p 옵션이 필요 없습니다.
Solaris Live Upgrade를 처음으로 실행하기 전에 설치 매체에서 최신 Solaris Live Upgrade 패키지를 설치하고 SunSolve 정보 설명서 206844에 나열된 패치를 설치해야 합니다. SunSolve 웹 사이트에서 정보 설명서 206844(이전의 72099)를 검색합니다.
최신 패키지 및 패치를 설치하면 릴리스에 모든 최신 버그 수정과 새로운 기능이 포함됩니다. 새 부트 환경 만들기를 진행하기 전에 시스템과 관련된 모든 패치를 설치해야 합니다.
다음 하위 단계에서는 SunSolve 정보 설명서 206844에 나오는 단계에 대해 설명합니다.
Solaris Live Upgrade를 사용하여 새 ZFS 부트 환경을 만들려면 최소 Solaris 10 10/08 릴리스가 설치되어 있어야 합니다. 이전 릴리스에는 작업을 수행할 수 있는 ZFS 및 Solaris Live Upgrade 소프트웨어가 없습니다.
수퍼유저 또는 동등한 역할의 사용자로 로그인합니다.
Solaris Live Upgrade 패키지를 제거하거나 추가하려면 SunSolve 웹 사이트에서 제공되는 정보 설명서 206844의 지침을 따르십시오.
세 개의 Solaris Live Upgrade 패키지 SUNWluu, SUNWlur 및 SUNWlucfg는 Solaris Live Upgrade를 사용한 업그레이드에 필요한 소프트웨어를 구성합니다. 이들 패키지는 기존 소프트웨어, 새 기능, 버그 수정 등을 포함합니다. 기존 패키지를 제거하지 않고 Solaris Live Upgrade를 사용하기 전에 시스템에 새 패키지를 설치한 경우에는 대상 릴리스로의 업그레이드가 실패합니다. SUMWlucfg 패키지는 Solaris 10 8/07 릴리스부터 지원되는 새로운 기능입니다. Solaris 10 8/07 이전 릴리스의 Solaris Live Upgrade 패키지를 사용하는 경우에는 이 패키지를 제거하지 않아도 됩니다.
SUMWlucfg 패키지는 Solaris 10 8/07 릴리스부터 지원되는 새로운 기능입니다. 이전 릴리스의 Solaris Live Upgrade 패키지를 사용하는 경우에는 이 패키지를 제거하지 않아도 됩니다.
# pkgrm SUNWlucfg SUNWluu SUNWlur |
새 Solaris Live Upgrade 패키지를 설치합니다. 자세한 내용은 Solaris Live Upgrade 설치를 참조하십시오.
Solaris Live Upgrade를 실행하기 전에 다음 패치를 설치해야 합니다. 이러한 패치에서는 최신 버그 수정과 릴리스의 새로운 기능을 설치합니다.
SunSolve을 참조하여 가장 최근에 업데이트된 패치 목록이 있는지 확인합니다. SunSolve 웹 사이트에서 정보 문서 206844(이전의 72099)를 검색합니다.
패치를 로컬 디스크에 저장하려는 경우에는 /var/tmp/lupatches와 같은 디렉토리를 만들고 해당 디렉토리로 패치를 다운로드합니다.
SunSolve 웹 사이트에서 패치 목록을 확인합니다.
이 예에서처럼 패치 디렉토리를 변경합니다.
# cd /var/tmp/lupatches |
patchadd 명령을 사용하여 패치를 설치합니다.
# patchadd path-to-patches patch_id patch_id |
path-to-patches는 패치 디렉토리의 경로(예: /var/tmp/lupatches)입니다. patch_id는 패치 번호입니다. 공백을 사용하여 여러 패치 이름을 구분합니다.
패치는 정보 문서 206844에서 지정한 순서대로 적용해야 합니다.
필요한 경우 시스템을 재부트합니다. 특정 패치는 재부트해야만 적용됩니다.
x86에만 해당: 시스템을 재부트해야 하며, 그렇지 않으면 Solaris Live Upgrade가 실패합니다.
# init 6 |
이제 새 부트 환경을 성공적으로 만드는 데 필요한 패키지 및 패치가 설치되었습니다.
새 부트 환경을 만듭니다.
# lucreate [-c zfsBE] -n new-zfsBE |
이름 zfsBE를 현재 부트 환경에 할당합니다. 이 옵션은 필수 사항이 아니며 부트 환경을 처음 만들 때만 사용됩니다. 처음 lucreate를 실행할 때 -c 옵션을 생략하면 소프트웨어에서는 기본 파일 이름을 사용합니다.
만들려는 부트 환경에 이름을 할당합니다. 이름은 시스템에서 고유해야 합니다.
새 부트 환경은 거의 즉시 만들어집니다. 현재 ZFS 루트 풀에 있는 각 데이터 세트의 스냅샷이 만들어지며, 클론이 각 스냅샷에서 만들어집니다. 스냅샷은 디스크 공간 측면에서 매우 효율적이며, 이 프로세스에서는 최소의 디스크 공간이 사용됩니다. 비활성 부트 환경이 만들어지면 luupgrade 또는 luactivate 명령을 사용하여 새 ZFS 부트 환경을 업그레이드하거나 활성화할 수 있습니다.
(선택 사항) 부트 환경이 완전한지 확인합니다.
lustatus 명령은 부트 환경 만들기가 완료되었고 부트 가능한지 보고합니다.
# lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes - |
(선택 사항) 시스템에서 기본 데이터 세트 정보를 확인합니다.
이 예에서 ZFS 루트 풀은 rpool로 이름이 지정되며 @ 기호는 스냅샷을 나타냅니다. 새 부트 환경의 마운트 지점은 luactivate 명령이 실행될 때까지 임시로 사용됩니다. /dump 및 /swap 볼륨은 ZFS 루트 풀과 루트 풀에 있는 부트 환경과 공유됩니다.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 9.29G 57.6G 20K /rpool rpool/ROOT 5.38G 57.6G 18K /rpool/ROOT rpool/ROOT/zfsBE 5.38G 57.6G 551M rpool/ROOT/zfsBE@new-zfsBE 66.5K - 551M - rpool/ROOT/new-zfsBE 85.5K 57.6G 551M /tmp/.alt.103197 rpool/dump 1.95G - 1.95G - rpool/swap 1.95G - 1.95G - |
이제 새 부트 환경을 업그레이드하고 활성화할 수 있습니다. 예 13–2를 참조하십시오.
다음 명령은 새 ZFS 부트 환경 new-zfsBE를 만듭니다. 부트 환경이 동일한 루트 풀 내에 만들어지므로 -p 옵션이 필요 없습니다.
# lucreate [-c zfsBE] -n new-zfsBE Analyzing system configuration. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Creating configuration for boot environment new-zfsBE. Source boot environment is zfsBE. Creating boot environment new-zfsBE. Cloning file systems from boot environment zfsBE to create boot environment new-zfsBE. Creating snapshot for <rpool> on <rpool> Creating clone for <rpool>. Setting canmount=noauto for <rpool> in zone <global> on <rpool>. Population of boot environment zfsBE successful on <rpool>. # lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes - # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 9.29G 57.6G 20K /rpool rpool/ROOT 5.38G 57.6G 18K /rpool/ROOT rpool/ROOT/zfsBE 5.38G 57.6G 551M rpool/ROOT/zfsBE@new-zfsBE 66.5K - 551M - rpool/ROOT/new-zfsBE 85.5K 57.6G 551M /tmp/.alt.103197 rpool/dump 1.95G - 1.95G - rpool/swap 1.95G - 1.95G - |
이제 새 부트 환경을 업그레이드하고 활성화할 수 있습니다. ZFS 부트 환경의 업그레이드에 대한 예는 예 13–1을 참조하십시오. luupgrade 명령 사용에 대한 예는 5 장Solaris Live Upgrade를 통해 업그레이드(작업)를 참조하십시오.
# luactivate new-zfsBE ********************************************************************** The target boot environment has been activated. It will be used when you reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You MUST USE either the init or the shutdown command when you reboot. If you do not use either init or shutdown, the system will not boot using the target BE. ********************************************************************** In case of a failure while booting to the target BE, the following process needs to be followed to fallback to the currently working boot environment: 1. Enter the PROM monitor (ok prompt). 2. Change the boot device back to the original boot environment by typing: setenv boot-device /pci@1f,0/pci@1/scsi@4,1/disk@2,0:a 3. Boot to the original boot environment by typing: boot ********************************************************************** Modifying boot archive service Activation of boot environment <new-zfsBE> successful. |
ZFS 부트 환경으로 시스템을 재부트합니다.
# init 6 # svc.startd: The system is coming down. Please wait. svc.startd: 79 system services are now being stopped. . . . |