ナビゲーションリンクをスキップ | |
印刷ビューの終了 | |
![]() |
Oracle Solaris 10 1/13 インストールガイド: Live Upgrade とアップグレードの計画 Oracle Solaris 10 1/13 Information Library (日本語) |
パート I Live Upgrade を使ったアップグレード
1. Oracle Solaris インストールの計画についての参照先
4. Live Upgrade を使用したブート環境の作成 (タスク)
5. Live Upgrade によるアップグレード (タスク)
6. 障害回復: 元のブート環境へのフォールバック (タスク)
7. Live Upgrade ブート環境の管理 (タスク)
8. 非大域ゾーンがインストールされているシステムにおける Oracle Solaris OS のアップグレード
パート II Live Upgrade を使った ZFS ルートプールのアップグレードと ZFS ルートプールへの移行
UFS ファイルシステムの ZFS ファイルシステムへの移行
UFS ファイルシステムを ZFS ファイルシステムに移行する方法
ZFS ブート環境を同一の ZFS ルートプール内に作成する方法
ここでは、既存の ZFS ルートプールがある場合に、新規のルートプール内に新規の ZFS ブート環境を作成する手順について説明します。非アクティブなブート環境の作成後、新しいブート環境を都合のよいときにアップグレードおよびアクティブにできます。新しいブート環境を配置する場所を指定する -p オプションは必須です。既存の ZFS ルートプールは、ブート可能かつアップグレード可能にするため単一のスライス上に配置してください。
最新のパッケージとパッチにより、リリースに最新のバグ修正と新機能がすべて含まれるようになります。新しいブート環境の作成に進む前に、システムに関連するすべてのパッチを必ずインストールしてください。
次のサブステップは、My Oracle Support のナレッジドキュメント 1004881.1 - Live Upgrade Software Patch Requirements (以前の 206844) の手順を説明したものです。
注 - Live Upgrade を使って新規 ZFS ブート環境を作成するためには、少なくとも Solaris 10 10/08 リリースがインストールされている必要があります。それより前のリリースの ZFS および Live Upgrade ソフトウェアでは、このタスクを実行することはできません。
3 つの Live Upgrade パッケージ SUNWluu、SUNWlur、および SUNWlucfg は、Live Upgrade を使ってアップグレードするために必要なソフトウェアを構成します。これらのパッケージには、既存のソフトウェア、新しい機能、およびバグ修正が含まれています。Live Upgrade を使用する前に、既存パッケージを削除しないで新しいパッケージをシステムにインストールすると、ターゲットリリースへのアップグレードは失敗します。SUMWlucfg パッケージは、Solaris 10 8/07 以降のリリースの新機能です。Solaris 10 8/07 より前のリリースから Live Upgrade パッケージを使用する場合は、このパッケージを削除する必要はありません。
注 - SUMWlucfg パッケージは、Solaris 10 8/07 以降のリリースの新機能です。それより前のリリースの Live Upgrade パッケージを使用する場合は、このパッケージを削除する必要はありません。
# pkgrm SUNWlucfg SUNWluu SUNWlur
My Oracle Support を調べて最新の更新済みパッチリストを持っていることを確認してください。My Oracle Support で、ナレッジドキュメント 1004881.1 - Live Upgrade Software Patch Requirements (以前の 206844) を検索してください。
パッチをローカルディスクに保存する場合は、/var/tmp/lupatches のようなディレクトリを作成し、パッチをそのディレクトリにダウンロードします。
My Oracle Support Web サイトから、パッチの一覧を取得します。
この例のようにパッチディレクトリに移動します。
# cd /var/tmp/lupatches
patchadd コマンドを使用してパッチをインストールします。
# patchadd -M path-to-patches patch_id patch_id
path-to-patches は、/var/tmp/lupatches などのパッチディレクトリへのパスです。patch_id はパッチの番号です。複数のパッチ名を指定する場合は、スペースで区切ります。
注 - パッチは、My Oracle Support のナレッジドキュメント 1004881.1 - Live Upgrade Software Patch Requirements (以前の 206844) に指定されている順序で適用する必要があります。
必要に応じてシステムをリブートします。いくつかのパッチは、有効にするためにリブートする必要があります。
x86 のみ: システムをリブートする必要があります。そうしないと、Live Upgrade は失敗します。
# init 6
以上で正しく移行するために必要なパッケージとパッチがインストールされました。
ZFS ルートプールは、ブート可能かつアップグレード可能にするため単一のスライス上に作成します。
# zpool create rpool2 c0t1d0s5
新しい ZFS ルートプールの名前です。
rpool2 を、ブート可能なスライス c0t1d0s5 に配置するように指定します。
新規ルートプールの作成の詳細については、『Oracle Solaris ZFS 管理ガイド』を参照してください。
# lucreate [-c zfsBE] -n new-zfsBE -p rpool2
現在の ZFS ブート環境の名前。
作成されるブート環境の名前。名前は、システム上で一意となるように指定する必要があります。
新しく作成した ZFS ルートのブート環境を rpool2 で定義した ZFS ルートプールに配置します。
新しい ZFS ブート環境の作成には、しばらく時間がかかることがあります。ファイルシステムのデータが新しい ZFS ルートプールにコピーされます。非アクティブなブート環境が作成された場合は、luupgrade コマンドまたは luactivate コマンドを使用して、新しい ZFS ブート環境をアップグレードまたはアクティブにすることができます。
lustatus コマンドは、ブート環境の作成が完了してブート可能であるかどうかを報告します。
# lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes -
次の例では、システム上のすべてのデータセットの名前を表示しています。表示される新しいブート環境のマウントポイントは、luactivate コマンドが実行されるまでの一時的なものです。新しいブート環境は、ボリューム rpool2/dump および rpool2/swap を、rpool2 ZFS ブート環境と共有します。
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 11.4G 2.95G 31K /rpool rpool/ROOT 4.34G 2.95G 31K legacy rpool/ROOT/new-zfsBE 4.34G 2.95G 4.34G / rpool/dump 2.06G 5.02G 16K - rpool/swap 5.04G 7.99G 16K -
これで、新しいブート環境をアップグレードおよびアクティブにできます。
例 12-3 新しいルートプールでのブート環境の作成
この例では、新しい ZFS ルートプール newPool が別のスライス c0t1s0s5 上に作成されます。lucreate コマンドで、新しい ZFS ブート環境 new-zfsbe を作成します。このブート環境は異なるルートプール内に作成されるため、-p オプションは必須です。
# zpool create newPool C0t2d0s5 # zfs list NAME USED AVAIL REFER MOUNTPOINT newPool 92.5K 18.7G 31K /newPool rpool 11.4G 2.95G 31K /rpool rpool/ROOT 4.34G 2.95G 31K legacy rpool/ROOT/zfsBE 4.34G 2.95G 4.34G / rpool/dump 2.06G 5.02G 16K - rpool/swap 5.04G 7.99G 16K - # lucreate -c c0t1d0s5 -n new-zfsbe -p newPool Checking GRUB menu... Analyzing system configuration. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <new-zfsbe>. Source boot environment is <c0t1d0s5>. Creating file systems on boot environment <new-zfsbe>. Creating <zfs> file system for </> in zone <global> on <newPool/ROOT/new-zfsbe>. Populating file systems on boot environment <new-zfsbe>. Analyzing zones. Mounting ABE <new-zfsbe>. Generating file list. Copying data from PBE <c0t1d0s5> to ABE <new-zfsbe>. 100% of filenames transferred Finalizing ABE. Fixing zonepaths in ABE. Unmounting ABE <new-zfsbe>. Fixing properties on ZFS datasets in ABE. Reverting state of zones in PBE <c0t1d0s5>. Making boot environment <new-zfsbe> bootable. Updating bootenv.rc on ABE <new-zfsbe>. Saving existing file </boot/grub/menu.lst> in top level dataset for BE <new-zfsBE> as <mount-point> //boot/grub/menu.lst.prev. File </boot/grub/menu.lst> propagation successful Copied GRUB menu from PBE to ABE No entry for BE <new-zfsbe> in GRUB menu Population of boot environment <new-zfsbe> successful. Creation of boot environment <new-zfsbe> successful. # lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- c0t0d0 yes yes yes no - zfsBE yes no no yes - new-zfsbe yes no no yes - # zfs list NAME USED AVAIL REFER MOUNTPOINT newPool 7.15G 11.6G 36K /newPool newPool/ROOT 4.05G 11.6G 31K legacy newPool/ROOT/new-zfsbe 4.05G 11.6G 4.05G / newPool/dump 1.03G 12.6G 16K - newPool/swap 2.06G 13.6G 16K - rpool 11.4G 2.95G 31K /rpool rpool/ROOT 4.34G 2.95G 31K legacy rpool/ROOT/zfsBE 4.34G 2.95G 4.34G / rpool/dump 2.06G 5.02G 16K - rpool/swap 5.04G 7.99G 16K -