跳過導航連結 | |
結束列印檢視 | |
![]() |
Oracle Solaris 10 1/13 安裝指南:Live Upgrade 與升級規劃 Oracle Solaris 10 1/13 Information Library (繁體中文) |
4. 使用 Live Upgrade 建立啟動環境 (作業)
8. 在已安裝非全域區域的系統上升級 Oracle Solaris 作業系統
第 2 部分使用 Live Upgrade 升級和遷移至 ZFS 根集區
11. 針對 ZFS 執行 Live Upgrade (規劃)
如果您擁有現有的 ZFS 根集區,以及想要在新根集區中建立新 ZFS 啟動環境,則下列程序提供了相關步驟。在建立非使用中的啟動環境之後,您可以在方便的時候升級及啟動新的啟動環境。需要 -p 選項,來指定新啟動環境的放置位置。現有 ZFS 根集區必須存在於獨立磁碟片段上,才能啟動和升級。
最新的套裝軟體和修補程式可確保您有此發行版本中的所有最新錯誤修正程式和新功能。在繼續建立新啟動環境之前,請確定您已安裝與您系統相關的所有修補程式。
下列子步驟描述 My Oracle Support 上知識文件 1004881.1 - Live Upgrade Software Patch Requirements (之前為 206844) 中的步驟。
備註 - 使用 Live Upgrade 建立新 ZFS 啟動環境,至少需要安裝 Solaris 10 10/08 發行版本。舊版沒有 ZFS 和 Live Upgrade 軟體可執行這些作業。
備註 - 身份包含授權指令與特權指令。如需角色的更多資訊,請參閱「System Administration Guide: Security Services」中的「Configuring RBAC (Task Map)」。
三種 Live Upgrade 套裝軟體 SUNWluu、SUNWlur 和 SUNWlucfg 組成了使用 Live Upgrade 進行升級所需的軟體。這些套裝軟體包含現有軟體、新功能和錯誤修正。若您在使用 Live Upgrade 前未移除現有套裝軟體並在系統上安裝新套裝軟體,則升級至目標發行版本時會失敗。從 Solaris 10 8/07 發行版本開始,會新增 SUMWlucfg 套裝軟體。如果您是使用 Solaris 10 8/07 之前發行版本的 Live Upgrade 套裝軟體,並不需要移除此套裝軟體。
備註 - 從 Solaris 10 8/07 發行版本開始,會新增 SUMWlucfg 套裝軟體。如果您是使用舊版中的 Live Upgrade 套裝軟體,並不需要移除此套裝軟體。
# pkgrm SUNWlucfg SUNWluu SUNWlur
請參閱 My Oracle Support,以確定您有最近更新的修補程式清單。在 My Oracle Support 上搜尋知識文件 1004881.1 - Live Upgrade Software Patch Requirements (之前為 206844)。
如果您要在本機磁碟上儲存修補程式,請建立如 /var/tmp/lupatches 的目錄,然後將修補程式下載至該目錄中。
從 My Oracle Support 網站,取得修補程式清單。
變更至修補程式目錄,如下列範例所示。
# cd /var/tmp/lupatches
使用 patchadd 指令安裝修補程式。
# patchadd -M path-to-patches patch_id patch_id
path-to-patches 為修補程式目錄的路徑,例如 /var/tmp/lupatches。patch_id 為修補程式編號。請以空格分隔多個修補程式名稱。
備註 - 必須依照 My Oracle Support 上知識文件 1004881.1 - Live Upgrade Software Patch Requirements (之前為 206844) 指定的順序套用修補程式。
如有必要,請重新啟動系統。部分修補程式需要重新啟動後才會生效。
僅限 x86:必須重新啟動系統,否則 Live Upgrade 會失敗。
# init 6
您現在已經有成功遷移所需的套裝軟體和修補程式。
ZFS 根集區必須位於單一磁碟片段上,才能啟動和升級。
# zpool create rpool2 c0t1d0s5
新 ZFS 根集區的名稱。
指定將 rpool2 置於可啟動磁碟片段 c0t1d0s5 上。
如需建立新根集區的資訊,請參閱「Oracle Solaris ZFS Administration Guide 」。
# lucreate [-c zfsBE] -n new-zfsBE -p rpool2
目前的 ZFS 啟動環境的名稱。
欲建立的啟動環境名稱。該名稱在此系統上必須是唯一的。
將新建立的 ZFS 根啟動環境置於 rpool2 所定義的 ZFS 根集區中。
建立新 ZFS 啟動環境可能需要一些時間。檔案系統資料將複製到新 ZFS 根集區。在建立非使用中的啟動環境後,您可以使用 luupgrade 或 luactivate 指令,來升級或啟動新的 ZFS 啟動環境。
lustatus 指令會報告啟動環境的建立是否完整且可啟動。
# lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes -
下列範例會顯示系統上所有資料集的名稱。在執行 luactivate 指令之前,所列出的新啟動環境掛載點都是暫時的掛載點。新啟動環境會與 rpool2 ZFS 啟動環境共用 rpool2/dump 和 rpool2/swap 磁碟區。
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 11.4G 2.95G 31K /rpool rpool/ROOT 4.34G 2.95G 31K legacy rpool/ROOT/new-zfsBE 4.34G 2.95G 4.34G / rpool/dump 2.06G 5.02G 16K - rpool/swap 5.04G 7.99G 16K -
您現在可以升級及啟動新的啟動環境。
範例 12-3 在新根集區上建立啟動環境
在此範例中,新 ZFS 根集區 newPool 會建立在獨立磁碟片段 c0t1s0s5 上。lucreate 指令會建立新 ZFS 啟動環境 new-zfsbe。因為將在不同的根集區中建立啟動環境,所以需要 -p 選項。
# zpool create newPool C0t2d0s5 # zfs list NAME USED AVAIL REFER MOUNTPOINT newPool 92.5K 18.7G 31K /newPool rpool 11.4G 2.95G 31K /rpool rpool/ROOT 4.34G 2.95G 31K legacy rpool/ROOT/zfsBE 4.34G 2.95G 4.34G / rpool/dump 2.06G 5.02G 16K - rpool/swap 5.04G 7.99G 16K - # lucreate -c c0t1d0s5 -n new-zfsbe -p newPool Checking GRUB menu... Analyzing system configuration. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <new-zfsbe>. Source boot environment is <c0t1d0s5>. Creating file systems on boot environment <new-zfsbe>. Creating <zfs> file system for </> in zone <global> on <newPool/ROOT/new-zfsbe>. Populating file systems on boot environment <new-zfsbe>. Analyzing zones. Mounting ABE <new-zfsbe>. Generating file list. Copying data from PBE <c0t1d0s5> to ABE <new-zfsbe>. 100% of filenames transferred Finalizing ABE. Fixing zonepaths in ABE. Unmounting ABE <new-zfsbe>. Fixing properties on ZFS datasets in ABE. Reverting state of zones in PBE <c0t1d0s5>. Making boot environment <new-zfsbe> bootable. Updating bootenv.rc on ABE <new-zfsbe>. Saving existing file </boot/grub/menu.lst> in top level dataset for BE <new-zfsBE> as <mount-point>//boot/grub/menu.lst.prev. File </boot/grub/menu.lst> propagation successful Copied GRUB menu from PBE to ABE No entry for BE <new-zfsbe> in GRUB menu Population of boot environment <new-zfsbe> successful. Creation of boot environment <new-zfsbe> successful. # lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- c0t0d0 yes yes yes no - zfsBE yes no no yes - new-zfsbe yes no no yes - # zfs list NAME USED AVAIL REFER MOUNTPOINT newPool 7.15G 11.6G 36K /newPool newPool/ROOT 4.05G 11.6G 31K legacy newPool/ROOT/new-zfsbe 4.05G 11.6G 4.05G / newPool/dump 1.03G 12.6G 16K - newPool/swap 2.06G 13.6G 16K - rpool 11.4G 2.95G 31K /rpool rpool/ROOT 4.34G 2.95G 31K legacy rpool/ROOT/zfsBE 4.34G 2.95G 4.34G / rpool/dump 2.06G 5.02G 16K - rpool/swap 5.04G 7.99G 16K -