JavaScript is required to for searching.
跳過導航連結
結束列印檢視
Oracle Solaris 10 1/13 安裝指南:Live Upgrade 與升級規劃     Oracle Solaris 10 1/13 Information Library (繁體中文)
search filter icon
search icon

文件資訊

前言

第 1 部分使用 Live Upgrade 升級

1.  Oracle Solaris 安裝規劃資訊的位置

2.  Live Upgrade (簡介)

3.  Live Upgrade (規劃)

4.  使用 Live Upgrade 建立啟動環境 (作業)

5.  使用 Live Upgrade 升級 (作業)

6.  失敗回復:轉至備用原始啟動環境 (作業)

7.  維護 Live Upgrade 啟動環境 (作業)

8.  在已安裝非全域區域的系統上升級 Oracle Solaris 作業系統

9.  Live Upgrade 範例

第 2 部分使用 Live Upgrade 升級和遷移至 ZFS 根集區

10.  Live Upgrade 和 ZFS (簡介)

11.  針對 ZFS 執行 Live Upgrade (規劃)

12.  為 ZFS 根集區建立啟動環境

將 UFS 檔案系統遷移至 ZFS 檔案系統

如何將 UFS 檔案系統遷移至 ZFS 檔案系統

在同一個 ZFS 根集區中建立啟動環境

如何在同一個 ZFS 根集區中建立 ZFS 啟動環境

在新根集區中建立啟動環境

如何在新 ZFS 根集區上建立啟動環境

從目前執行中系統以外的來源建立啟動環境

轉至備用 ZFS 啟動環境

13.  針對已安裝非全域區域的 ZFS 執行 Live Upgrade

第 3 部分附錄

A.  Live Upgrade 指令參考

B.  疑難排解 (作業)

C.  附加的 SVR4 封裝需求 (參考)

D.  升級時使用修補程式分析器 (作業)

字彙表

索引

在新根集區中建立啟動環境

如果您擁有現有的 ZFS 根集區,以及想要在新根集區中建立新 ZFS 啟動環境,則下列程序提供了相關步驟。在建立非使用中的啟動環境之後,您可以在方便的時候升級及啟動新的啟動環境。需要 -p 選項,來指定新啟動環境的放置位置。現有 ZFS 根集區必須存在於獨立磁碟片段上,才能啟動和升級。

如何在新 ZFS 根集區上建立啟動環境

  1. 第一次執行 Live Upgrade 之前,您必須從安裝媒體安裝最新的 Live Upgrade 套裝軟體,並安裝知識文件中所列的修補程式。在 My Oracle Support 網站上,搜尋知識文件 1004881.1 - Live Upgrade Software Patch Requirements (之前為 206844)。

    最新的套裝軟體和修補程式可確保您有此發行版本中的所有最新錯誤修正程式和新功能。在繼續建立新啟動環境之前,請確定您已安裝與您系統相關的所有修補程式。

    下列子步驟描述 My Oracle Support 上知識文件 1004881.1 - Live Upgrade Software Patch Requirements (之前為 206844) 中的步驟。


    備註 - 使用 Live Upgrade 建立新 ZFS 啟動環境,至少需要安裝 Solaris 10 10/08 發行版本。舊版沒有 ZFS 和 Live Upgrade 軟體可執行這些作業。


    1. 成為超級使用者,或者假設一個對等身份。

      備註 - 身份包含授權指令與特權指令。如需角色的更多資訊,請參閱「System Administration Guide: Security Services」中的「Configuring RBAC (Task Map)」


    2. 在 My Oracle Support 網站中,遵循知識文件 1004881.1 中的指示,移除和新增 Live Upgrade 套裝軟體。

      三種 Live Upgrade 套裝軟體 SUNWluuSUNWlurSUNWlucfg 組成了使用 Live Upgrade 進行升級所需的軟體。這些套裝軟體包含現有軟體、新功能和錯誤修正。若您在使用 Live Upgrade 前未移除現有套裝軟體並在系統上安裝新套裝軟體,則升級至目標發行版本時會失敗。從 Solaris 10 8/07 發行版本開始,會新增 SUMWlucfg 套裝軟體。如果您是使用 Solaris 10 8/07 之前發行版本的 Live Upgrade 套裝軟體,並不需要移除此套裝軟體。


      備註 - 從 Solaris 10 8/07 發行版本開始,會新增 SUMWlucfg 套裝軟體。如果您是使用舊版中的 Live Upgrade 套裝軟體,並不需要移除此套裝軟體。


      # pkgrm SUNWlucfg SUNWluu SUNWlur
    3. 安裝新的 Live Upgrade 套裝軟體。如需相關說明,請參閱安裝 Live Upgrade
    4. 執行 Live Upgrade 之前,必須安裝下列修補程式。這些修補程式可確保您有此發行版本中的所有最新錯誤修正程式和新功能。

      請參閱 My Oracle Support,以確定您有最近更新的修補程式清單。在 My Oracle Support 上搜尋知識文件 1004881.1 - Live Upgrade Software Patch Requirements (之前為 206844)。

      • 如果您要在本機磁碟上儲存修補程式,請建立如 /var/tmp/lupatches 的目錄,然後將修補程式下載至該目錄中。

      • My Oracle Support 網站,取得修補程式清單。

      • 變更至修補程式目錄,如下列範例所示。

        # cd /var/tmp/lupatches
      • 使用 patchadd 指令安裝修補程式。

        # patchadd -M path-to-patches patch_id patch_id

        path-to-patches 為修補程式目錄的路徑,例如 /var/tmp/lupatchespatch_id 為修補程式編號。請以空格分隔多個修補程式名稱。


        備註 - 必須依照 My Oracle Support 上知識文件 1004881.1 - Live Upgrade Software Patch Requirements (之前為 206844) 指定的順序套用修補程式。


      • 如有必要,請重新啟動系統。部分修補程式需要重新啟動後才會生效。

        僅限 x86:必須重新啟動系統,否則 Live Upgrade 會失敗。

        # init 6

        您現在已經有成功遷移所需的套裝軟體和修補程式。

  2. 建立 ZFS 根集區。

    ZFS 根集區必須位於單一磁碟片段上,才能啟動和升級。

    # zpool create rpool2 c0t1d0s5
    rpool2

    新 ZFS 根集區的名稱。

    c0t1d0s5

    指定將 rpool2 置於可啟動磁碟片段 c0t1d0s5 上。

    如需建立新根集區的資訊,請參閱「Oracle Solaris ZFS Administration Guide 」

  3. 建立新啟動環境。
    # lucreate [-c zfsBE] -n new-zfsBE -p rpool2
    zfsBE

    目前的 ZFS 啟動環境的名稱。

    new-zfsBE

    欲建立的啟動環境名稱。該名稱在此系統上必須是唯一的。

    -p rpool2

    將新建立的 ZFS 根啟動環境置於 rpool2 所定義的 ZFS 根集區中。

    建立新 ZFS 啟動環境可能需要一些時間。檔案系統資料將複製到新 ZFS 根集區。在建立非使用中的啟動環境後,您可以使用 luupgradeluactivate 指令,來升級或啟動新的 ZFS 啟動環境。

  4. (可選擇) 驗證啟動環境是否完整。

    lustatus 指令會報告啟動環境的建立是否完整且可啟動。

    # lustatus
    boot environment   Is        Active  Active     Can        Copy 
    Name               Complete  Now     OnReboot   Delete     Status 
    ------------------------------------------------------------------------ 
    zfsBE                       yes      yes     yes        no        - 
    new-zfsBE                   yes      no      no         yes        -
  5. (可選擇) 驗證系統上的基本資料集資訊。

    下列範例會顯示系統上所有資料集的名稱。在執行 luactivate 指令之前,所列出的新啟動環境掛載點都是暫時的掛載點。新啟動環境會與 rpool2 ZFS 啟動環境共用 rpool2/dumprpool2/swap 磁碟區。

    # zfs list
    NAME                                   USED  AVAIL  REFER  MOUNTPOINT
    rpool                                     11.4G  2.95G    31K  /rpool
    rpool/ROOT                                4.34G  2.95G    31K  legacy
    rpool/ROOT/new-zfsBE                      4.34G  2.95G  4.34G  /
    rpool/dump                                2.06G  5.02G    16K  -
    rpool/swap                                5.04G  7.99G    16K  -

    您現在可以升級及啟動新的啟動環境。

範例 12-3 在新根集區上建立啟動環境

在此範例中,新 ZFS 根集區 newPool 會建立在獨立磁碟片段 c0t1s0s5 上。lucreate 指令會建立新 ZFS 啟動環境 new-zfsbe。因為將在不同的根集區中建立啟動環境,所以需要 -p 選項。

# zpool create newPool C0t2d0s5
# zfs list
NAME                                   USED  AVAIL  REFER  MOUNTPOINT
newPool                          92.5K  18.7G    31K  /newPool 
rpool                                     11.4G  2.95G    31K  /rpool
rpool/ROOT                                4.34G  2.95G    31K  legacy
rpool/ROOT/zfsBE                      4.34G  2.95G  4.34G  /
rpool/dump                                2.06G  5.02G    16K  -
rpool/swap                                5.04G  7.99G    16K  -
# lucreate -c c0t1d0s5 -n new-zfsbe -p newPool 
Checking GRUB menu...
Analyzing system configuration.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID.
Creating configuration for boot environment <new-zfsbe>.
Source boot environment is <c0t1d0s5>.
Creating file systems on boot environment <new-zfsbe>.
Creating <zfs> file system for </> in zone <global> on <newPool/ROOT/new-zfsbe>.
Populating file systems on boot environment <new-zfsbe>.
Analyzing zones.
Mounting ABE <new-zfsbe>.
Generating file list.
Copying data from PBE <c0t1d0s5> to ABE <new-zfsbe>.
100% of filenames transferred
Finalizing ABE.
Fixing zonepaths in ABE.
Unmounting ABE <new-zfsbe>.
Fixing properties on ZFS datasets in ABE.
Reverting state of zones in PBE <c0t1d0s5>.
Making boot environment <new-zfsbe> bootable.
Updating bootenv.rc on ABE <new-zfsbe>.
Saving existing file </boot/grub/menu.lst> in top level dataset for BE <new-zfsBE> as <mount-point>//boot/grub/menu.lst.prev.
File </boot/grub/menu.lst> propagation successful
Copied GRUB menu from PBE to ABE
No entry for BE <new-zfsbe> in GRUB menu
Population of boot environment <new-zfsbe> successful.
Creation of boot environment <new-zfsbe> successful. 
# lustatus
Boot Environment           Is       Active Active    Can    Copy
Name                       Complete Now    On Reboot Delete Status
-------------------------- -------- ------ --------- ------ ----------
c0t0d0                     yes      yes    yes       no     -
zfsBE                            yes      no     no        yes    -
new-zfsbe                  yes      no     no        yes    -

# zfs list
NAME                                   USED  AVAIL  REFER  MOUNTPOINT
newPool                               7.15G  11.6G    36K  /newPool
newPool/ROOT                          4.05G  11.6G    31K  legacy
newPool/ROOT/new-zfsbe                4.05G  11.6G  4.05G  /
newPool/dump                          1.03G  12.6G    16K  -
newPool/swap                          2.06G  13.6G    16K  -
rpool                                             11.4G  2.95G    31K  /rpool
rpool/ROOT                                        4.34G  2.95G    31K  legacy
rpool/ROOT/zfsBE                                  4.34G  2.95G  4.34G  /
rpool/dump                                        2.06G  5.02G    16K  -
rpool/swap                                        5.04G  7.99G    16K  -