JavaScript is required to for searching.
ナビゲーションリンクをスキップ
印刷ビューの終了
Oracle Solaris 10 8/11 インストールガイド (Solaris Live Upgrade とアップグレードの計画)     Oracle Solaris 10 8/11 Information Library (日本語)
search filter icon
search icon

ドキュメントの情報

はじめに

パート I Solaris Live Upgrade によるアップグレード

1.  Solaris インストールの計画についての参照先

2.  Solaris Live Upgrade (概要)

3.  Solaris Live Upgrade (計画)

4.  Solaris Live Upgrade によるブート環境の作成 (作業)

5.  Solaris Live Upgrade によるアップグレード (作業)

6.  障害回復: 元のブート環境へのフォールバック (作業)

7.  Solaris Live Upgrade ブート環境の管理 (作業)

8.  非大域ゾーンがインストールされているシステムにおける Oracle Solaris OS のアップグレード

9.  Solaris Live Upgrade (例)

10.  Solaris Live Upgrade (コマンドリファレンス)

パート II Solaris Live Upgrade を使った ZFS ルートプールのアップグレードと ZFS ルートプールへの移行

11.  Solaris Live Upgrade と ZFS (概要)

12.  ZFS の Solaris Live Upgrade (計画)

13.  ZFS ルートプールのブート環境の作成

UFS ファイルシステムの ZFS ファイルシステムへの移行

UFS ファイルシステムを ZFS ファイルシステムに移行する方法

同一の ZFS ルートプール内でのブート環境の作成

ZFS ブート環境を同一の ZFS ルートプール内に作成する方法

新しいルートプール内でのブート環境の作成

ブート環境を新規 ZFS ルートプールに作成する方法

現在稼動中のシステム以外のソースからのブート環境の作成

ZFS ブート環境へのフォールバック

追加情報

14.  非大域ゾーンがインストールされている ZFS の Solaris Live Upgrade

パート III 付録

A.  問題発生時の解決方法 (作業)

B.  その他の SVR4 パッケージ要件 (リファレンス)

C.  アップグレード時のパッチアナライザの使用 (作業)

用語集

索引

新しいルートプール内でのブート環境の作成

ここでは、既存の ZFS ルートプールがある場合に、新規のルートプール内に新規の ZFS ブート環境を作成する手順について説明します。非アクティブなブート環境の作成後、新しいブート環境を都合のよいときにアップグレードおよびアクティブにできます。新しいブート環境を配置する場所を指定する -p オプションは必須です。既存の ZFS ルートプールは、ブート可能かつアップグレード可能にするため単一のスライス上に配置してください。

ブート環境を新規 ZFS ルートプールに作成する方法

  1. Solaris Live Upgrade をはじめて実行する前に、インストールメディアに含まれている最新の Solaris Live Upgrade パッケージと、ナレッジドキュメントに記載されているパッチをインストールしてください。My Oracle Support Web サイトでナレッジドキュメント 1004881.1 - Solaris Live Upgrade Software Patch Requirements (以前の 206844) を検索してください。

    最新のパッケージとパッチにより、リリースに最新のバグ修正と新機能がすべて含まれるようになります。新しいブート環境の作成に進む前に、システムに関連するすべてのパッチを必ずインストールしてください。

    次のサブステップは、My Oracle Support のナレッジドキュメント 1004881.1 - Solaris Live Upgrade Software Patch Requirements (以前の 206844) の手順を説明したものです。


    注 - Solaris Live Upgrade を使って新規 ZFS ブート環境を作成するためには、少なくとも Solaris 10 10/08 リリースがインストールされている必要があります。それより前のリリースの ZFS および Solaris Live Upgrade ソフトウェアでは、この作業を実行することはできません。


    1. スーパーユーザーになるか、同等の役割を引き受けます。

      注 - 役割には、認証と特権コマンドが含まれます。役割の詳細については、『Solaris のシステム管理 (セキュリティサービス)』の「RBAC の構成 (作業マップ)」を参照してください。


    2. My Oracle Support Web サイトで、ナレッジドキュメント 1004881.1 の手順に従って、Solaris Live Upgrade パッケージを削除して追加します。

      3 つの Solaris Live Upgrade パッケージ SUNWluuSUNWlur、および SUNWlucfg は、Solaris Live Upgrade を使ってアップグレードするのに必要なソフトウェアを構成します。これらのパッケージには、既存のソフトウェア、新しい機能、およびバグ修正が含まれています。Solaris Live Upgrade を使用する前に、既存パッケージを削除しないで新しいパッケージをシステムにインストールすると、ターゲットリリースへのアップグレードは失敗します。SUMWlucfg パッケージは、Solaris 10 8/07 以降のリリースの新機能です。Solaris 10 8/07 より前のリリースから Solaris Live Upgrade パッケージを使用する場合は、このパッケージを削除する必要はありません。


      注 - SUMWlucfg パッケージは、Solaris 10 8/07 以降のリリースの新機能です。それより前のリリースから Solaris Live Upgrade パッケージを使用する場合は、このパッケージを削除する必要はありません。


      # pkgrm SUNWlucfg SUNWluu SUNWlur
    3. 新しい Solaris Live Upgrade パッケージをインストールします。詳細については、「Solaris Live Upgrade のインストール」を参照してください。
    4. Solaris Live Upgrade を実行する前に、次のパッチをインストールする必要があります。これらのパッチにより、リリースに最新のバグ修正と新機能がすべて含まれるようになります。

      My Oracle Support を調べて最新の更新済みパッチリストを持っていることを確認してください。My Oracle Support で、ナレッジドキュメント 1004881.1 - Solaris Live Upgrade Software: Patch Requirements (以前の 206844) を検索してください。

      • パッチをローカルディスクに保存する場合は、/var/tmp/lupatches のようなディレクトリを作成し、パッチをそのディレクトリにダウンロードします。

      • My Oracle Support Web サイトから、パッチの一覧を取得します。

      • この例のようにパッチディレクトリに移動します。

        # cd /var/tmp/lupatches
      • patchadd コマンドを使用してパッチをインストールします。

        # patchadd -M path-to-patches patch_id patch_id

        path-to-patches は、/var/tmp/lupatches などのパッチディレクトリへのパスです。patch_id はパッチの番号です。複数のパッチ名を指定する場合は、スペースで区切ります。


        注 - パッチは、My Oracle Support のナレッジドキュメント 1004881.1 - Solaris Live Upgrade Software Patch Requirements (以前の 206844) に指定されている順序で適用する必要があります。


      • 必要に応じてシステムをリブートします。いくつかのパッチは、有効にするためにリブートする必要があります。

        x86 のみ: システムをリブートする必要があります。そうしないと、Solaris Live Upgrade は失敗します。

        # init 6

        以上で正しく移行するために必要なパッケージとパッチがインストールされました。

  2. ZFS ルートプールを作成します。

    ZFS ルートプールは、ブート可能かつアップグレード可能にするため単一のスライス上に作成します。

    # zpool create rpool2 c0t1d0s5
    rpool2

    新しい ZFS ルートプールの名前です。

    c0t1d0s5

    rpool2 を、ブート可能なスライス c0t1d0s5 に配置するように指定します。

    新規ルートプールの作成の詳細については、『Oracle Solaris ZFS 管理ガイド』を参照してください。

  3. 新しいブート環境を作成します。
    # lucreate [-c zfsBE] -n new-zfsBE -p rpool2
    -c zfsBE

    現在の ZFS ブート環境に zfsBE という名前を割り当てます。

    -n new-zfsBE

    作成するブート環境に名前を割り当てます。名前は、システム上で一意となるように指定する必要があります。

    -p rpool2

    新しく作成した ZFS ルートのブート環境を rpool2 で定義した ZFS ルートプールに配置します。

    新しい ZFS ブート環境の作成には、しばらく時間がかかることがあります。ファイルシステムのデータが新しい ZFS ルートプールにコピーされます。非アクティブなブート環境が作成された場合は、luupgrade コマンドまたは luactivate コマンドを使用して、新しい ZFS ブート環境をアップグレードまたはアクティブにすることができます。

  4. (省略可能) ブート環境が完成したことを確認します。

    lustatus コマンドは、ブート環境の作成が完了してブート可能であるかどうかを報告します。

    # lustatus
    boot environment   Is        Active  Active     Can        Copy 
    Name               Complete  Now     OnReboot   Delete     Status 
    ------------------------------------------------------------------------ 
    zfsBE                       yes      yes     yes        no        - 
    new-zfsBE                   yes      no      no         yes        -
  5. (省略可能) システム上の基本データセット情報を確認します。

    次の例では、システム上のすべてのデータセットの名前を表示しています。表示される新しいブート環境のマウントポイントは、luactivate コマンドが実行されるまでの一時的なものです。新しいブート環境は、ボリューム rpool2/dump および rpool2/swap を、rpool2 ZFS ブート環境と共有します。

    # zfs list
    NAME                             USED    AVAIL   REFER   MOUNTPOINT 
    rpool2                           9.29G    57.6G     20K   /rpool2 
    rpool2/ROOT/                     5.38G    57.6G     18K   /rpool2/ROOT 
    rpool2/ROOT/new-zfsBE            5.38G    57.6G    551M  /tmp/.new.luupdall.109859
    rpool2/dump                      3.99G        -   3.99G   - 
    rpool2/swap                      3.99G        -   3.99G   - 
    rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
    rpool/ROOT                       5.46G    57.6G     18K   legacy
    rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
    rpool/dump                       3.99G        -   3.99G   - 
    rpool/swap                       3.99G        -   3.99G   - 

    これで、新しいブート環境をアップグレードおよびアクティブにできます。例 13-3 を参照してください。

例 13-3 新しいルートプールでのブート環境の作成

この例では、新しい ZFS ルートプール rpool が、別のスライス c0t2s0s5 上に作成されます。lucreate コマンドで、新規 ZFS ブート環境 new-zfsBE を作成します。このブート環境は異なるルートプール内に作成されるため、-p オプションは必須です。

# zpool create rpool C0t1d0s5
# zfs list
NAME                             USED    AVAIL   REFER   MOUNTPOINT 
rpool2                           9.29G    57.6G     20K   /rpool2 
rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
rpool/ROOT                                 5.46G    57.6G     18K   legacy
rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
rpool/dump                       3.99G        -   3.99G   - 
rpool/swap                       3.99G        -   3.99G   - 

# lucreate -c rpool -n new-zfsBE -p rpool2
Analyzing system configuration.
Current boot environment is named <rpool>.
Creating initial configuration for primary boot environment <rpool>.
The device </dev/dsk/c0t0d0> is not a root device for any 
boot environment; cannot get BE ID.
PBE configuration successful: PBE name <rpool> PBE Boot 
Device </dev/dsk/rpool>.
Comparing source boot environment <rpool> file systems with 
the file system(s) you specified for the new boot environment. 
Determining which file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t0d0s0> is not a root device for any 
boot environment; cannot get BE ID.
Creating configuration for boot environment <new-zfsBE>.
Source boot environment is <rpool>.
Creating boot environment <new-zfsBE>.
Creating file systems on boot environment <new-zfsBE>.
Creating <zfs> file system for </> in zone <global> on 
<rpool2/ROOT/new-zfsBE>.
Populating file systems on boot environment <new-zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </>.
Making boot environment <new-zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-cBc.mnt
updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive
Population of boot environment <new-zfsBE> successful.
Creation of boot environment <new-zfsBE> successful.

# lustatus
boot environment   Is        Active  Active     Can        Copy 
Name               Complete  Now    OnReboot   Delete     Status 
------------------------------------------------------------------------ 
zfsBE                yes      yes     yes        no        - 
new-zfsBE            yes      no      no         yes        -
# zfs list
NAME                             USED    AVAIL   REFER   MOUNTPOINT 
rpool2                           9.29G    57.6G     20K   /rpool2 
rpool2/ROOT/                     5.38G    57.6G     18K   /rpool2/ROOT 
rpool2/ROOT/new-zfsBE            5.38G    57.6G    551M   /tmp/.new.luupdall.109859
rpool2/dump                      3.99G        -   3.99G   - 
rpool2/swap                      3.99G        -   3.99G   - 
rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
rpool/ROOT                       5.46G    57.6G     18K   legacy
rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
rpool/dump                       3.99G        -   3.99G   - 
rpool/swap                       3.99G        -   3.99G   -