JavaScript is required to for searching.
ナビゲーションリンクをスキップ
印刷ビューの終了
Oracle Solaris 10 1/13 インストールガイド: Live Upgrade とアップグレードの計画     Oracle Solaris 10 1/13 Information Library (日本語)
search filter icon
search icon

ドキュメントの情報

はじめに

パート I Live Upgrade を使ったアップグレード

1.  Oracle Solaris インストールの計画についての参照先

2.  Live Upgrade (概要)

3.  Live Upgrade (計画)

4.  Live Upgrade を使用したブート環境の作成 (タスク)

5.  Live Upgrade によるアップグレード (タスク)

6.  障害回復: 元のブート環境へのフォールバック (タスク)

7.  Live Upgrade ブート環境の管理 (タスク)

8.  非大域ゾーンがインストールされているシステムにおける Oracle Solaris OS のアップグレード

9.  Live Upgrade の例

パート II Live Upgrade を使った ZFS ルートプールのアップグレードと ZFS ルートプールへの移行

10.  Live Upgrade と ZFS (概要)

11.  ZFS の Live Upgrade (計画)

12.  ZFS ルートプールのブート環境の作成

UFS ファイルシステムの ZFS ファイルシステムへの移行

UFS ファイルシステムを ZFS ファイルシステムに移行する方法

同一の ZFS ルートプール内でのブート環境の作成

ZFS ブート環境を同一の ZFS ルートプール内に作成する方法

新しいルートプール内でのブート環境の作成

ブート環境を新規 ZFS ルートプールに作成する方法

現在稼動中のシステム以外のソースからのブート環境の作成

ZFS ブート環境へのフォールバック

13.  非大域ゾーンがインストールされている ZFS での Live Upgrade

パート III 付録

A.  Live Upgrade コマンドリファレンス

B.  トラブルシューティング (タスク)

C.  その他の SVR4 パッケージ要件 (リファレンス)

D.  アップグレード時のパッチアナライザの使用 (タスク)

用語集

索引

新しいルートプール内でのブート環境の作成

ここでは、既存の ZFS ルートプールがある場合に、新規のルートプール内に新規の ZFS ブート環境を作成する手順について説明します。非アクティブなブート環境の作成後、新しいブート環境を都合のよいときにアップグレードおよびアクティブにできます。新しいブート環境を配置する場所を指定する -p オプションは必須です。既存の ZFS ルートプールは、ブート可能かつアップグレード可能にするため単一のスライス上に配置してください。

ブート環境を新規 ZFS ルートプールに作成する方法

  1. Live Upgrade をはじめて実行する前に、インストールメディアに含まれている最新の Live Upgrade パッケージと、ナレッジドキュメントに記載されているパッチをインストールする必要があります。My Oracle Support Web サイトでナレッジドキュメント 1004881.1 - Live Upgrade Software Patch Requirements (以前の 206844) を検索してください。

    最新のパッケージとパッチにより、リリースに最新のバグ修正と新機能がすべて含まれるようになります。新しいブート環境の作成に進む前に、システムに関連するすべてのパッチを必ずインストールしてください。

    次のサブステップは、My Oracle Support のナレッジドキュメント 1004881.1 - Live Upgrade Software Patch Requirements (以前の 206844) の手順を説明したものです。


    注 - Live Upgrade を使って新規 ZFS ブート環境を作成するためには、少なくとも Solaris 10 10/08 リリースがインストールされている必要があります。それより前のリリースの ZFS および Live Upgrade ソフトウェアでは、このタスクを実行することはできません。


    1. スーパーユーザーになるか、同等の役割を引き受けます。

      注 - 役割には、認証と特権コマンドが含まれます。役割の詳細については、『Solaris のシステム管理: セキュリティーサービス』の「RBAC の構成 (タスクマップ)」を参照してください。


    2. My Oracle Support Web サイトで、ナレッジドキュメント 1004881.1 の手順に従って、Live Upgrade パッケージを削除して追加します。

      3 つの Live Upgrade パッケージ SUNWluuSUNWlur、および SUNWlucfg は、Live Upgrade を使ってアップグレードするために必要なソフトウェアを構成します。これらのパッケージには、既存のソフトウェア、新しい機能、およびバグ修正が含まれています。Live Upgrade を使用する前に、既存パッケージを削除しないで新しいパッケージをシステムにインストールすると、ターゲットリリースへのアップグレードは失敗します。SUMWlucfg パッケージは、Solaris 10 8/07 以降のリリースの新機能です。Solaris 10 8/07 より前のリリースから Live Upgrade パッケージを使用する場合は、このパッケージを削除する必要はありません。


      注 - SUMWlucfg パッケージは、Solaris 10 8/07 以降のリリースの新機能です。それより前のリリースの Live Upgrade パッケージを使用する場合は、このパッケージを削除する必要はありません。


      # pkgrm SUNWlucfg SUNWluu SUNWlur
    3. 新しい Live Upgrade パッケージをインストールします。手順は、「Live Upgrade のインストール」を参照してください。
    4. Live Upgrade を実行する前に、次のパッチをインストールする必要があります。これらのパッチにより、リリースに最新のバグ修正と新機能がすべて含まれるようになります。

      My Oracle Support を調べて最新の更新済みパッチリストを持っていることを確認してください。My Oracle Support で、ナレッジドキュメント 1004881.1 - Live Upgrade Software Patch Requirements (以前の 206844) を検索してください。

      • パッチをローカルディスクに保存する場合は、/var/tmp/lupatches のようなディレクトリを作成し、パッチをそのディレクトリにダウンロードします。

      • My Oracle Support Web サイトから、パッチの一覧を取得します。

      • この例のようにパッチディレクトリに移動します。

        # cd /var/tmp/lupatches
      • patchadd コマンドを使用してパッチをインストールします。

        # patchadd -M path-to-patches patch_id patch_id

        path-to-patches は、/var/tmp/lupatches などのパッチディレクトリへのパスです。patch_id はパッチの番号です。複数のパッチ名を指定する場合は、スペースで区切ります。


        注 - パッチは、My Oracle Support のナレッジドキュメント 1004881.1 - Live Upgrade Software Patch Requirements (以前の 206844) に指定されている順序で適用する必要があります。


      • 必要に応じてシステムをリブートします。いくつかのパッチは、有効にするためにリブートする必要があります。

        x86 のみ: システムをリブートする必要があります。そうしないと、Live Upgrade は失敗します。

        # init 6

        以上で正しく移行するために必要なパッケージとパッチがインストールされました。

  2. ZFS ルートプールを作成します。

    ZFS ルートプールは、ブート可能かつアップグレード可能にするため単一のスライス上に作成します。

    # zpool create rpool2 c0t1d0s5
    rpool2

    新しい ZFS ルートプールの名前です。

    c0t1d0s5

    rpool2 を、ブート可能なスライス c0t1d0s5 に配置するように指定します。

    新規ルートプールの作成の詳細については、『Oracle Solaris ZFS 管理ガイド』を参照してください。

  3. 新しいブート環境を作成します。
    # lucreate [-c zfsBE] -n new-zfsBE -p rpool2
    zfsBE

    現在の ZFS ブート環境の名前。

    new-zfsBE

    作成されるブート環境の名前。名前は、システム上で一意となるように指定する必要があります。

    -p rpool2

    新しく作成した ZFS ルートのブート環境を rpool2 で定義した ZFS ルートプールに配置します。

    新しい ZFS ブート環境の作成には、しばらく時間がかかることがあります。ファイルシステムのデータが新しい ZFS ルートプールにコピーされます。非アクティブなブート環境が作成された場合は、luupgrade コマンドまたは luactivate コマンドを使用して、新しい ZFS ブート環境をアップグレードまたはアクティブにすることができます。

  4. (オプション) ブート環境が完成したことを確認します。

    lustatus コマンドは、ブート環境の作成が完了してブート可能であるかどうかを報告します。

    # lustatus
    boot environment   Is        Active  Active     Can        Copy 
    Name               Complete  Now     OnReboot   Delete     Status 
    ------------------------------------------------------------------------ 
    zfsBE                       yes      yes     yes        no        - 
    new-zfsBE                   yes      no      no         yes        -
  5. (オプション) システム上の基本データセット情報を確認します。

    次の例では、システム上のすべてのデータセットの名前を表示しています。表示される新しいブート環境のマウントポイントは、luactivate コマンドが実行されるまでの一時的なものです。新しいブート環境は、ボリューム rpool2/dump および rpool2/swap を、rpool2 ZFS ブート環境と共有します。

    # zfs list
    NAME                                   USED  AVAIL  REFER  MOUNTPOINT
    rpool                                     11.4G  2.95G    31K  /rpool
    rpool/ROOT                                4.34G  2.95G    31K  legacy
    rpool/ROOT/new-zfsBE                      4.34G  2.95G  4.34G  /
    rpool/dump                                2.06G  5.02G    16K  -
    rpool/swap                                5.04G  7.99G    16K  -

    これで、新しいブート環境をアップグレードおよびアクティブにできます。

例 12-3 新しいルートプールでのブート環境の作成

この例では、新しい ZFS ルートプール newPool が別のスライス c0t1s0s5 上に作成されます。lucreate コマンドで、新しい ZFS ブート環境 new-zfsbe を作成します。このブート環境は異なるルートプール内に作成されるため、-p オプションは必須です。

# zpool create newPool C0t2d0s5
# zfs list
NAME                                   USED  AVAIL  REFER  MOUNTPOINT
newPool                          92.5K  18.7G    31K  /newPool 
rpool                                     11.4G  2.95G    31K  /rpool
rpool/ROOT                                4.34G  2.95G    31K  legacy
rpool/ROOT/zfsBE                      4.34G  2.95G  4.34G  /
rpool/dump                                2.06G  5.02G    16K  -
rpool/swap                                5.04G  7.99G    16K  -
# lucreate -c c0t1d0s5 -n new-zfsbe -p newPool 
Checking GRUB menu...
Analyzing system configuration.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID.
Creating configuration for boot environment <new-zfsbe>.
Source boot environment is <c0t1d0s5>.
Creating file systems on boot environment <new-zfsbe>.
Creating <zfs> file system for </> in zone <global> on <newPool/ROOT/new-zfsbe>.
Populating file systems on boot environment <new-zfsbe>.
Analyzing zones.
Mounting ABE <new-zfsbe>.
Generating file list.
Copying data from PBE <c0t1d0s5> to ABE <new-zfsbe>.
100% of filenames transferred
Finalizing ABE.
Fixing zonepaths in ABE.
Unmounting ABE <new-zfsbe>.
Fixing properties on ZFS datasets in ABE.
Reverting state of zones in PBE <c0t1d0s5>.
Making boot environment <new-zfsbe> bootable.
Updating bootenv.rc on ABE <new-zfsbe>.
Saving existing file </boot/grub/menu.lst> in top level dataset for BE <new-zfsBE> as <mount-point>
//boot/grub/menu.lst.prev.
File </boot/grub/menu.lst> propagation successful
Copied GRUB menu from PBE to ABE
No entry for BE <new-zfsbe> in GRUB menu
Population of boot environment <new-zfsbe> successful.
Creation of boot environment <new-zfsbe> successful. 
# lustatus
Boot Environment           Is       Active Active    Can    Copy
Name                       Complete Now    On Reboot Delete Status
-------------------------- -------- ------ --------- ------ ----------
c0t0d0                     yes      yes    yes       no     -
zfsBE                            yes      no     no        yes    -
new-zfsbe                  yes      no     no        yes    -

# zfs list
NAME                                   USED  AVAIL  REFER  MOUNTPOINT
newPool                               7.15G  11.6G    36K  /newPool
newPool/ROOT                          4.05G  11.6G    31K  legacy
newPool/ROOT/new-zfsbe                4.05G  11.6G  4.05G  /
newPool/dump                          1.03G  12.6G    16K  -
newPool/swap                          2.06G  13.6G    16K  -
rpool                                             11.4G  2.95G    31K  /rpool
rpool/ROOT                                        4.34G  2.95G    31K  legacy
rpool/ROOT/zfsBE                                  4.34G  2.95G  4.34G  /
rpool/dump                                        2.06G  5.02G    16K  -
rpool/swap                                        5.04G  7.99G    16K  -