ナビゲーションリンクをスキップ | |
印刷ビューの終了 | |
![]() |
Oracle Solaris ZFS 管理ガイド Oracle Solaris 10 8/11 Information Library (日本語) |
1. Oracle Solaris ZFS ファイルシステム (概要)
3. Oracle Solaris ZFS ファイルシステムと従来のファイルシステムの相違点
4. Oracle Solaris ZFS ストレージプールの管理
5. Oracle Solaris ZFS ルートファイルシステムのインストールとブート
Oracle Solaris ZFS ルートファイルシステムのインストールとブート (概要)
ZFS をサポートするための Oracle Solaris インストールと Live Upgrade の要件
ZFS ルートファイルシステムのインストール (Oracle Solaris 初期インストール)
ミラー化された ZFS ルートプールを作成する方法 (インストール後)
ZFS ルートファイルシステムのインストール (Oracle Solaris フラッシュアーカイブインストール)
ZFS ルートファイルシステムのインストール (JumpStart インストール)
ZFS ルートファイルシステムへの移行または ZFS ルートファイルシステムの更新 (Live Upgrade)
Live Upgrade を使用して ZFS ルートファイルシステム (ゾーンが含まれていない) を移行または更新する
ゾーンが含まれているシステムを Live Upgrade を使用して移行またはアップグレードする (Solaris 10 10/08)
UFS 上にゾーンルートを持つ UFS ルートファイルシステムを ZFS ルートファイルシステムに移行する方法 (Solaris 10 10/08)
ZFS 上にゾーンルートを持つ ZFS ルートファイルシステムを構成する方法 (Solaris 10 10/08)
ZFS 上にゾーンルートを持つ ZFS ルートファイルシステムにアップグレードまたはパッチを適用する方法 (Solaris 10 10/08)
ゾーンが含まれているシステムを Oracle Solaris Live Upgrade で移行またはアップグレードする (Solaris 10 5/09 以降)
サポートされているゾーンルート構成を持つ ZFS の情報 (Solaris 10 5/09 以降)
ZFS ルートファイルシステムとゾーンルートを持つ ZFS BE を作成する方法 (Solaris 10 5/09 以降)
ゾーンルートを持つ ZFS ルートファイルシステムにアップグレードまたはパッチを適用する方法 (Solaris 10 5/09 以降)
ゾーンルートを持つ UFS ルートファイルシステムを ZFS ルートファイルシステムに移行する方法 (Solaris 10 5/09 以降)
ZFS スワップデバイスおよびダンプデバイスのサイズを調整する
ミラー化された ZFS ルートプールの代替ディスクからブートする
正常なブートを妨げる ZFS マウントポイントの問題の解決 (Solaris 10 10/08)
ZFS ルートプールまたはルートプールのスナップショットを回復する
ZFS ルートプールを再作成しルートプールのスナップショットを復元する方法
フェイルセーフブートからルートプールのスナップショットをロールバックする方法
6. Oracle Solaris ZFS ファイルシステムの管理
7. Oracle Solaris ZFS のスナップショットとクローンの操作
8. ACL および属性を使用した Oracle Solaris ZFS ファイルの保護
10. Oracle Solaris ZFS の高度なトピック
11. Oracle Solaris ZFS のトラブルシューティングとプールの回復
Live Upgrade の UFS コンポーネント関連機能は引き続き使用可能で、以前のリリースと同様に動作します。
次の機能が使用可能です。
UFS BE から ZFS BE への移行
UFS ルートファイルシステムを ZFS ルートファイルシステムに移行する場合は、既存の ZFS ストレージプールを -p オプションで指定する必要があります。
UFS ルートファイルシステムのコンポーネントがさまざまなスライス上に存在する場合、それらは ZFS ルートプールに移行されます。
Oracle Solaris 10 8/11 リリースでは、UFS ルートファイルシステムを ZFS ルートファイルシステムに移行するとき、単独の /var ファイルシステムを指定することができます。
UFS ルートファイルシステムを ZFS ルートファイルシステムに移行するための基本的な手順は次のとおりです。
必要に応じて、Live Upgrade の必要なパッチをインストールします。
サポートされている任意の SPARC ベースシステムまたは x86 ベースシステムで、Oracle Solaris 10 の最新リリース (Solaris 10 10/08 から Oracle Solaris 10 8/11) をインストールするか、標準のアップグレードプログラムを使用して以前の Oracle Solaris 10 リリースからアップグレードします。
Solaris 10 10/08 以降のリリースを実行している場合は、ZFS ルートファイルシステム用の ZFS ストレージプールを作成します。
Live Upgrade を使用して、UFS ルートファイルシステムを ZFS ルートファイルシステムに移行します。
ZFS BE を luactivate コマンドでアクティブにします。
ZFS BE のパッチ適用またはアップグレード
luupgrade コマンドを使用して、既存の ZFS BE にパッチを適用するか、アップグレードできます。また、luupgrade を使用して、ZFS フラッシュアーカイブを使用して代替 ZFS BE をアップグレードします。詳細は、例 5-8を参照してください。
同じプール内で新しい ZFS BE を作成する場合は、Live Upgrade で ZFS のスナップショットとクローンの機能を使用できます。したがって、以前のリリースと比べてはるかに高速に BE を作成できます。
ゾーン移行サポート - Solaris 10 10/08 リリースでは、ゾーンが含まれているシステムを移行することはできますが、サポートされる構成は限られています。Solaris 10 5/09 以降のリリースでは、より多くのゾーン構成がサポートされています。詳細は、次の各節を参照してください。
「ゾーンが含まれているシステムを Live Upgrade を使用して移行またはアップグレードする (Solaris 10 10/08)」
「ゾーンが含まれているシステムを Oracle Solaris Live Upgrade で移行またはアップグレードする (Solaris 10 5/09 以降)」
ゾーンが含まれていないシステムを移行する場合は、「Live Upgrade を使用して ZFS ルートファイルシステム (ゾーンが含まれていない) を移行または更新する」を参照してください。
Oracle Solaris インストールおよび Live Upgrade の機能の詳細については、『Oracle Solaris 10 9/10 インストールガイド (Solaris Live Upgrade とアップグレードの計画)』を参照してください。
ZFS および Live Upgrade の要件については、「ZFS をサポートするための Oracle Solaris インストールと Live Upgrade の要件」を参照してください。
Live Upgrade を使用して UFS ルートファイルシステムを ZFS ルートファイルシステムに移行する前に、次に示す問題を確認してください。
UFS ルートファイルシステムから ZFS ルートファイルシステムへの移行には、Oracle Solaris インストール GUI の標準アップグレードオプションは使用できません。UFS ファイルシステムから移行するには、Live Upgrade を使用する必要があります。
Live Upgrade 操作の前に、ブートに使用する ZFS ストレージプールを作成する必要があります。また、現時点でのブートに関する制限のため、ZFS ルートプールの作成には、ディスク全体ではなくスライスを使用する必要があります。次に例を示します。
# zpool create rpool mirror c1t0d0s0 c1t1d0s0
新しいプールを作成する前に、プールで使用するディスクに、EFI ラベルではなく SMI (VTOC) ラベルが付いていることを確認してください。ディスクに SMI ラベルを付け直した場合は、ラベル付け処理によってパーティション分割方式が変更されていないことを確認してください。ほとんどの場合、ルートプールに使用するスライスにディスク容量のすべてを割り当てるようにしてください。
Oracle Solaris Live Upgrade を使用して、UFS BE を ZFS BE から作成することはできません。UFS BE を ZFS BE に移行し、UFS BE を維持する場合は、UFS BE または ZFS BE からブートできます。
Live Upgrade は名前の変更を検出できないため、zfs rename コマンドで ZFS BE の名前を変更しないでください。名前を変更すると、以降に実行する ludelete などのコマンドが失敗します。したがって、既存の BE を引き続き使用する場合は、ZFS プールまたはファイルシステムの名前を変更しないでください。
主 BE のクローンである代替 BE を作成するときに、-f、-x、-y、-Y、および -z オプションを使用して主 BE のファイルを含めたり除外したりすることはできません。ただし、次の場合には、ファイルを含めるオプションと除外するオプションを使用できます。
UFS -> UFS UFS -> ZFS ZFS -> ZFS (different pool)
Live Upgrade を使用すると、UFS ルートファイルシステムを ZFS ルートファイルシステムにアップグレードできますが、Live Upgrade を使用してルート以外のファイルシステムまたは共有ファイルシステムをアップグレードすることはできません。
lu コマンドを使用して ZFS ルートファイルシステムの作成や移行を行うことはできません。
次の例では、UFS ルートファイルシステムから ZFS ルートファイルシステムに移行する方法と、ZFS ルートファイルシステムを更新する方法を示します。
ゾーンが含まれているシステムを移行またはアップグレードする場合は、次の各節を参照してください。
「ゾーンが含まれているシステムを Live Upgrade を使用して移行またはアップグレードする (Solaris 10 10/08)」
「ゾーンが含まれているシステムを Oracle Solaris Live Upgrade で移行またはアップグレードする (Solaris 10 5/09 以降)」
例 5-4 Live Upgrade を使用して、UFS ルートファイルシステムを ZFS ルートファイルシステムに移行する
次の例では、ZFS ルートファイルシステムを UFS ルートファイルシステムから移行する方法を示します。現在の BE ufsBE は -c オプションで指定されています。この BE には UFS ルートファイルシステムが含まれています。-c オプション (省略可能) を指定しない場合、デフォルトではデバイス名が現在の BE の名前になります。新しい BE である zfsBE は、-n オプションによって識別されます。 lucreate 操作を実行する前に ZFS ストレージプールが存在している必要があります。
ZFS ストレージプールは、アップグレード可能かつブート可能にするため、ディスク全体ではなくスライスを使って作成します。新しいプールを作成する前に、プールで使用するディスクに、EFI ラベルではなく SMI (VTOC) ラベルが付いていることを確認してください。ディスクに SMI ラベルを付け直した場合は、ラベル付け処理によってパーティション分割方式が変更されていないことを確認してください。ほとんどの場合、ルートプールに使用するスライスにディスク容量のすべてを割り当てるようにしてください。
# zpool create rpool mirror c1t2d0s0 c2t1d0s0 # lucreate -c ufsBE -n zfsBE -p rpool Analyzing system configuration. No name for current boot environment. Current boot environment is named <ufsBE>. Creating initial configuration for primary boot environment <ufsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <ufsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <ufsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t2d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <zfsBE>. Source boot environment is <ufsBE>. Creating boot environment <zfsBE>. Creating file systems on boot environment <zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>. Populating file systems on boot environment <zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </rpool/ROOT>. Creating compare database for file system </>. Updating compare databases on boot environment <zfsBE>. Making boot environment <zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-qD.mnt updating /.alt.tmp.b-qD.mnt/platform/sun4u/boot_archive Population of boot environment <zfsBE> successful. Creation of boot environment <zfsBE> successful.
lucreate 操作が完了したら、lustatus コマンドを使用して BE の状態を表示します。次に例を示します。
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- ufsBE yes yes yes no - zfsBE yes no no yes -
その後、ZFS コンポーネントのリストを確認します。次に例を示します。
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.17G 59.8G 95.5K /rpool rpool/ROOT 4.66G 59.8G 21K /rpool/ROOT rpool/ROOT/zfsBE 4.66G 59.8G 4.66G / rpool/dump 2G 61.8G 16K - rpool/swap 517M 60.3G 16K -
次に、luactivate コマンドを使用して、新しい ZFS BE をアクティブにします。次に例を示します。
# luactivate zfsBE A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>. ********************************************************************** The target boot environment has been activated. It will be used when you reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You MUST USE either the init or the shutdown command when you reboot. If you do not use either init or shutdown, the system will not boot using the target BE. ********************************************************************** . . . Modifying boot archive service Activation of boot environment <zfsBE> successful.
次に、システムをリブートして ZFS BE に切り替えます。
# init 6
ZFS BE がアクティブになっていることを確認します。
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- ufsBE yes no no yes - zfsBE yes yes yes no -
UFS BE に切り替えなおす場合は、ZFS BE がブートされていた間に作成された ZFS ストレージプールをすべて再インポートする必要があります。これらは UFS BE で自動的には使用可能になりません。
UFS BE が必要でなくなった場合は、ludelete コマンドで削除できます。
例 5-5 Live Upgrade を使用して ZFS BE を UFS BE から作成する (単独の /var を使用)
Oracle Solaris 10 8/11 リリースでは、UFS ルートファイルシステムを ZFS ルートファイルシステムに移行するとき、lucreate -D オプションを使用して、単独の /var ファイルシステムを作成することを指定することができます。次の例では、単独の /var ファイルシステムを使用して、既存の UFS BE が ZFS BE に移行されます。
# lucreate -n zfsBE -p rpool -D /var Determining types of file systems supported Validating file system requests Preparing logical storage devices Preparing physical storage devices Configuring physical storage devices Configuring logical storage devices Analyzing system configuration. No name for current boot environment. INFORMATION: The current boot environment is not named - assigning name <c0t0d0s0>. Current boot environment is named <c0t0d0s0>. Creating initial configuration for primary boot environment <c0t0d0s0>. INFORMATION: No BEs are configured on this system. The device </dev/dsk/c0t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <c0t0d0s0> PBE Boot Device </dev/dsk/c0t0d0s0>. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c0t1d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <zfsBE>. Source boot environment is <c0t0d0s0>. Creating file systems on boot environment <zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>. Creating <zfs> file system for </var> in zone <global> on <rpool/ROOT/zfsBE/var>. Populating file systems on boot environment <zfsBE>. Analyzing zones. Mounting ABE <zfsBE>. Generating file list. Copying data from PBE <c0t0d0s0> to ABE <zfsBE> 100% of filenames transferred Finalizing ABE. Fixing zonepaths in ABE. Unmounting ABE <zfsBE>. Fixing properties on ZFS datasets in ABE. Reverting state of zones in PBE <c0t0d0s0>. Making boot environment <zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-iaf.mnt updating /.alt.tmp.b-iaf.mnt/platform/sun4u/boot_archive Population of boot environment <zfsBE> successful. Creation of boot environment <zfsBE> successful. # luactivate zfsBE A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>. . . . Modifying boot archive service Activation of boot environment <zfsBE> successful. # init 6
新しく作成された ZFS ファイルシステムを確認します。例:
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 6.29G 26.9G 32.5K /rpool rpool/ROOT 4.76G 26.9G 31K legacy rpool/ROOT/zfsBE 4.76G 26.9G 4.67G / rpool/ROOT/zfsBE/var 89.5M 26.9G 89.5M /var rpool/dump 512M 26.9G 512M - rpool/swap 1.03G 28.0G 16K -
例 5-6 Live Upgrade を使用して ZFS BE を ZFS BE から作成する
同じプール内で ZFS BE から ZFS BE を作成する操作には ZFS のスナップショットとクローンの機能が使用されるため、この操作は非常に高速です。現在の BE が同じ ZFS プールにある場合、-p オプションは省略されます。
ZFS BE が複数存在する場合は、次のようにしてブート元の BE を選択します。
SPARC: boot -L コマンドを使用して、利用可能な BE を識別できます。次に、boot -Z コマンドを使用して、ブート元の BE を選択します。
x86: GRUB メニューから BE を選択できます。
詳細は、例 5-12 を参照してください。
# lucreate -n zfs2BE Analyzing system configuration. No name for current boot environment. INFORMATION: The current boot environment is not named - assigning name <zfsBE>. Current boot environment is named <zfsBE>. Creating initial configuration for primary boot environment <zfsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. Creating configuration for boot environment <zfs2BE>. Source boot environment is <zfsBE>. Creating boot environment <zfs2BE>. Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>. Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>. Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>. Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>. Population of boot environment <zfs2BE> successful. Creation of boot environment <zfs2BE> successful.
例 5-7 ZFS BE を更新する (luupgrade)
ZFS BE を追加のパッケージやパッチで更新することができます。
基本的な手順は次のとおりです。
代替 BE を lucreate コマンドで作成します。
代替 BE をアクティブにし、そこからブートします。
主 ZFS BE を luupgrade コマンドで更新して、パッケージやパッチを追加します。
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes no no yes - zfs2BE yes yes yes no - # luupgrade -p -n zfsBE -s /net/system/export/s10up/Solaris_10/Product SUNWchxge Validating the contents of the media </net/install/export/s10up/Solaris_10/Product>. Mounting the BE <zfsBE>. Adding packages to the BE <zfsBE>. Processing package instance <SUNWchxge> from </net/install/export/s10up/Solaris_10/Product> Chelsio N110 10GE NIC Driver(sparc) 11.10.0,REV=2006.02.15.20.41 Copyright (c) 2010, Oracle and/or its affiliates. All rights reserved. This appears to be an attempt to install the same architecture and version of a package which is already installed. This installation will attempt to overwrite this package. Using </a> as the package base directory. ## Processing package information. ## Processing system information. 4 package pathnames are already properly installed. ## Verifying package dependencies. ## Verifying disk space requirements. ## Checking for conflicts with packages already installed. ## Checking for setuid/setgid programs. This package contains scripts which will be executed with super-user permission during the process of installing this package. Do you want to continue with the installation of <SUNWchxge> [y,n,?] y Installing Chelsio N110 10GE NIC Driver as <SUNWchxge> ## Installing part 1 of 1. ## Executing postinstall script. Installation of <SUNWchxge> was successful. Unmounting the BE <zfsBE>. The package add to the BE <zfsBE> completed.
あるいは、以降の Oracle Solaris リリースに更新するための新しい BE を作成することができます。例:
# luupgrade -u -n newBE -s /net/install/export/s10up/latest
ここで、-s オプションは Solaris インストールメディアの場所を指定します。
例 5-8 ZFS フラッシュアーカイブを使用して ZFS BE を作成する (luupgrade )
Oracle Solaris 10 8/11 リリースでは、luupgrade コマンドを使用して既存の ZFS フラッシュアーカイブから ZFS BE を作成できます。基本的な操作を次に示します。
ZFS BE を使用してマスターシステムのフラッシュアーカイブを作成します。
例:
master-system# flarcreate -n s10zfsBE /tank/data/s10zfsflar Full Flash Checking integrity... Integrity OK. Running precreation scripts... Precreation scripts done. Determining the size of the archive... The archive will be approximately 4.67GB. Creating the archive... Archive creation complete. Running postcreation scripts... Postcreation scripts done. Running pre-exit scripts... Pre-exit scripts done.
マスターシステム上に作成された ZFS フラッシュアーカイブをクローンシステム上で使用できるようにします。
フラッシュアーカイブの可能な場所は、ローカルファイルシステム、HTTP、FTP、NFS などです。
クローンシステム上に空の代替 ZFS BE を作成します。
-s - オプションを使用して、ZFS フラッシュアーカイブ内容が取り込まれる空の BE であることを指定します。
例:
clone-system# lucreate -n zfsflashBE -s - -p rpool Determining types of file systems supported Validating file system requests Preparing logical storage devices Preparing physical storage devices Configuring physical storage devices Configuring logical storage devices Analyzing system configuration. No name for current boot environment. INFORMATION: The current boot environment is not named - assigning name <s10zfsBE>. Current boot environment is named <s10zfsBE>. Creating initial configuration for primary boot environment <s10zfsBE>. INFORMATION: No BEs are configured on this system. The device </dev/dsk/c0t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <s10zfsBE> PBE Boot Device </dev/dsk/c0t0d0s0>. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c0t1d0s0> is not a root device for any boot environment; cannot get BE ID. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsflashBE>. Creation of boot environment <zfsflashBE> successful.
ZFS フラッシュアーカイブを代替 BE にインストールします。
例:
clone-system# luupgrade -f -s /net/server/export/s10/latest -n zfsflashBE -a /tank/data/zfs10up2flar miniroot filesystem is <lofs> Mounting miniroot at </net/server/s10up/latest/Solaris_10/Tools/Boot> Validating the contents of the media </net/server/export/s10up/latest>. The media is a standard Solaris media. Validating the contents of the miniroot </net/server/export/s10up/latest/Solaris_10/Tools/Boot>. Locating the flash install program. Checking for existence of previously scheduled Live Upgrade requests. Constructing flash profile to use. Creating flash profile for BE <zfsflashBE>. Performing the operating system flash install of the BE <zfsflashBE>. CAUTION: Interrupting this process may leave the boot environment unstable or unbootable. Extracting Flash Archive: 100% completed (of 5020.86 megabytes) The operating system flash install completed. updating /.alt.tmp.b-rgb.mnt/platform/sun4u/boot_archive The Live Flash Install of the boot environment <zfsflashBE> is complete.
代替 BE をアクティブにします。
clone-system# luactivate zfsflashBE A Live Upgrade Sync operation will be performed on startup of boot environment <zfsflashBE>. . . . Modifying boot archive service Activation of boot environment <zfsflashBE> successful.
システムをリブートします。
clone-system# init 6
Solaris 10 10/08 リリースでは、ゾーンが含まれているシステムを Live Upgrade で移行することはできますが、サポートされる構成は限られています。Solaris 10 5/09 以降のリリースをインストールする場合や Solaris 10 5/09 以降のリリースにアップグレードする場合は、より多くのゾーン構成がサポートされます。詳細は、「ゾーンが含まれているシステムを Oracle Solaris Live Upgrade で移行またはアップグレードする (Solaris 10 5/09 以降)」を参照してください。
この節では、Live Upgrade によるアップグレードやパッチの適用が可能になるように、ゾーンが含まれているシステムをインストールして構成する方法について説明します。ゾーンが含まれていない ZFS ルートファイルシステムに移行する場合は、「Live Upgrade を使用して ZFS ルートファイルシステム (ゾーンが含まれていない) を移行または更新する」を参照してください。
Solaris 10 10/08 リリースで、ゾーンが含まれているシステムを移行する場合や、ゾーンが含まれているシステムを構成する場合は、次の手順を確認してください。
「UFS 上にゾーンルートを持つ UFS ルートファイルシステムを ZFS ルートファイルシステムに移行する方法 (Solaris 10 10/08)」
「ZFS 上にゾーンルートを持つ ZFS ルートファイルシステムにアップグレードまたはパッチを適用する方法 (Solaris 10 10/08)」
ZFS ルートファイルシステムが含まれているシステムでこれらの推奨手順に従ってゾーンを設定して、そのシステムで Live Upgrade を使用できるようにします。
次の手順では、ゾーンがインストールされている UFS ルートファイルシステムを、アップグレードやパッチの適用が可能な ZFS ルートファイルシステムおよび ZFS ゾーンルート構成に移行する方法を説明します。
次の手順では、プール名の例として rpool を使用し、アクティブなブート環境 (BE) の名前の例として s10BE* で始まる名前を使用します。
Solaris 10 リリースが稼働しているシステムのアップグレードについての詳細は、『Oracle Solaris 10 9/10 インストールガイド (Solaris Live Upgrade とアップグレードの計画)』を参照してください。
# zpool create rpool mirror c0t1d0 c1t1d0
ルートプールの要件については、「ZFS をサポートするための Oracle Solaris インストールと Live Upgrade の要件」を参照してください。
# lucreate -n s10BE2 -p rpool
このコマンドは、新しい BE のデータセットをルートプールに確立し、現在の BE を (ゾーンも含めて) それらのデータセットにコピーします。
# luactivate s10BE2
これで、システムでは ZFS ルートファイルシステムが稼働していますが、UFS 上のゾーンルートはまだ UFS ルートファイルシステムにあります。UFS ゾーンをサポートされる ZFS 構成に完全に移行するには、次の手順が必要です。
# init 6
# lucreate s10BE3
# luactivate s10BE3
# init 6
この手順により、ZFS BE とゾーンがブートされることが確認されます。
Live Upgrade のバグのため、アクティブでない BE はブートに失敗する場合があります。これは、BEの ZFS データセットまたはゾーンの ZFS データセットに無効なマウントポイントが含まれているためです。
正しくない一時的なマウントポイントを探します。例:
# zfs list -r -o name,mountpoint rpool/ROOT/s10up NAME MOUNTPOINT rpool/ROOT/s10up /.alt.tmp.b-VP.mnt/ rpool/ROOT/s10up/zones /.alt.tmp.b-VP.mnt//zones rpool/ROOT/s10up/zones/zonerootA /.alt.tmp.b-VP.mnt/zones/zonerootA
ルート ZFS BE (rpool/ROOT/s10up) のマウントポイントは / となるべきです。
次に例を示します。
# zfs inherit -r mountpoint rpool/ROOT/s10up # zfs set mountpoint=/ rpool/ROOT/s10up
OpenBoot PROM プロンプトまたは GRUB メニューで、特定の BE をブートするオプションが表示されたら、マウントポイントが修正された BE を選択します。
次の手順では、アップグレードやパッチの適用が可能な ZFS ルートファイルシステムおよび ZFS ゾーンルート構成を設定する方法を説明します。この構成では、ZFS ゾーンルートは ZFS データセットとして作成されます。
次の手順では、プール名の例として rpool、アクティブなブート環境の名前の例として s10BE を使用しています。ゾーンのデータセットの名前は、任意の有効なデータセット名とすることができます。次の例では、ゾーンのデータセットの名前は zones になっています。
どちらのインストール方法を選択したかによって、「ZFS ルートファイルシステムのインストール (Oracle Solaris 初期インストール)」または「ZFS ルートファイルシステムのインストール (JumpStart インストール)」のいずれかを参照してください。
例:
# zfs create -o canmount=noauto rpool/ROOT/s10BE/zones
canmount プロパティーに noauto 値を設定すると、Live Upgrade とシステムの起動コードの明示的なアクションによらないかぎり、データセットはマウントされなくなります。
# zfs mount rpool/ROOT/s10BE/zones
データセットは /zones にマウントされます。
# zfs create -o canmount=noauto rpool/ROOT/s10BE/zones/zonerootA # zfs mount rpool/ROOT/s10BE/zones/zonerootA
# chmod 700 /zones/zonerootA
# zonecfg -z zoneA zoneA: No such zone configured Use 'create' to begin configuring a new zone. zonecfg:zoneA> create zonecfg:zoneA> set zonepath=/zones/zonerootA
次の構文を使用して、システムのブート時にゾーンが自動的にブートするように設定できます。
zonecfg:zoneA> set autoboot=true
# zoneadm -z zoneA install
# zoneadm -z zoneA boot
ZFS 上にゾーンルートを持つ ZFS ルートファイルシステムにアップグレードやパッチを適用する必要がある場合は、次の手順を使用します。このような更新は、システムのアップグレードの場合と、パッチの適用の場合があります。
次の手順では、アップグレードまたはパッチを適用する BE の名前の例として newBE を使用しています。
# lucreate -n newBE
すべてのゾーンを含め、既存の BE が複製されます。元の BE の各データセットに対してデータセットが 1 つずつ作成されます。新しいデータセットは、現在のルートプールと同じプールに作成されます。
システムをアップグレードします。
# luupgrade -u -n newBE -s /net/install/export/s10up/latest
ここで、-s オプションは Oracle Solaris インストールメディアの場所を指定します。
新しい BE にパッチを適用します。
# luupgrade -t -n newBE -t -s /patchdir 139147-02 157347-14
# luactivate newBE
# init 6
Live Upgrade のバグのため、アクティブでない BE はブートに失敗する場合があります。これは、BEの ZFS データセットまたはゾーンの ZFS データセットに無効なマウントポイントが含まれているためです。
正しくない一時的なマウントポイントを探します。次に例を示します。
# zfs list -r -o name,mountpoint rpool/ROOT/newBE NAME MOUNTPOINT rpool/ROOT/newBE /.alt.tmp.b-VP.mnt/ rpool/ROOT/newBE/zones /.alt.tmp.b-VP.mnt/zones rpool/ROOT/newBE/zones/zonerootA /.alt.tmp.b-VP.mnt/zones/zonerootA
ルート ZFS BE (rpool/ROOT/newBE) のマウントポイントは / となるべきです。
次に例を示します。
# zfs inherit -r mountpoint rpool/ROOT/newBE # zfs set mountpoint=/ rpool/ROOT/newBE
OpenBoot PROM プロンプトまたは GRUB メニューで、特定のブート環境をブートするオプションが表示されたら、マウントポイントが修正されたブート環境を選択します。
Solaris 10 10/08 以降のリリースでは、Oracle Solaris Live Upgrade 機能を使用して、ゾーンが含まれているシステムを移行またはアップグレードすることができます。Solaris 10 5/09 以降のリリースでは、追加の疎 (ルートおよび完全) ゾーン構成が Live Upgrade でサポートされます。
この節では、Solaris 10 5/09 以降のリリースで Live Upgrade によるアップグレードやパッチの適用が可能になるようにゾーンが含まれているシステムを構成する方法について説明します。ゾーンが含まれていない ZFS ルートファイルシステムに移行する場合は、「Live Upgrade を使用して ZFS ルートファイルシステム (ゾーンが含まれていない) を移行または更新する」を参照してください。
Solaris 10 5/09 以降のリリースで ZFS とゾーンに Oracle Solaris Live Upgrade を使用する場合は、次の点を考慮してください。
Solaris 10 5/09 以降のリリースでサポートされるゾーン構成で Live Upgrade を使用するには、まず標準のアップグレードプログラムを使って Solaris 10 5/09 以降のリリースにシステムをアップグレードする必要があります。
その後、Live Upgrade を使用して、ゾーンルートを持つ UFS ルートファイルシステムを ZFS ルートファイルシステムに移行するか、ZFS ルートファイルシステムとゾーンルートにアップグレードやパッチを適用することができます。
サポートされていないゾーン構成を、以前の Solaris 10 リリースから直接 Solaris 10 5/09 以降のリリースに移行することはできません。
Solaris 10 5/09 以降のリリースでゾーンを含むシステムを移行または構成する場合は、次の情報を確認してください。
「ZFS ルートファイルシステムとゾーンルートを持つ ZFS BE を作成する方法 (Solaris 10 5/09 以降)」
「ゾーンルートを持つ ZFS ルートファイルシステムにアップグレードまたはパッチを適用する方法 (Solaris 10 5/09 以降)」
「ゾーンルートを持つ UFS ルートファイルシステムを ZFS ルートファイルシステムに移行する方法 (Solaris 10 5/09 以降)」
ゾーンが含まれているシステムを Oracle Solaris Live Upgrade を使用して移行またはアップグレードする前に、サポートされているゾーン構成を確認してください。
UFS ルートファイルシステムを ZFS ルートファイルシステムに移行する – 次のゾーンルート構成がサポートされています。
UFS ルートファイルシステムのディレクトリ内
UFS ルートファイルシステムのマウントポイントのサブディレクトリ内
UFS ルートファイルシステムのディレクトリ内または UFS ルートファイルシステムのマウントポイントのサブディレクトリ内にゾーンルートを含む UFS ルートファイルシステム、およびゾーンルートを含む ZFS 非ルートプール
ゾーンルートをマウントポイントとして持つ UFS ルートファイルシステムはサポートされません。
ZFS ルートファイルシステムを移行またはアップグレードする – 次のゾーンルート構成がサポートされています。
ZFS ルートまたは非ルートプール内のファイルシステム。たとえば、/zonepool/zones は使用できます。場合により、Live Upgrade 操作の実行前にゾーンルートのファイルシステムが用意されていないときは、ゾーンルートのファイルシステム (zoneds) が Live Upgrade によって作成されます。
ZFS ファイルシステムの下位ファイルシステムまたはサブディレクトリで、異なるゾーンパスがネストされていない場合。たとえば、/zonepool/zones/zone1 と /zonepool/zones/zone1_dir は使用できます。
次の例では、zonepool/zones はゾーンルートを含むファイルシステムであり、rpool は ZFS BE を含んでいます。
zonepool zonepool/zones zonepool/zones/myzone rpool rpool/ROOT rpool/ROOT/myBE
次の構文を使用すると、Live Upgrade によって zonepool のゾーンおよび rpool BE のスナップショットが作成され、複製が行われます。
# lucreate -n newBE
newBE BE が rpool/ROOT/newBE 内に作成されます。newBE をアクティブにすると、 zonepool のコンポーネントにアクセスできるようになります。
前述の例では、/zonepool/zones がサブディレクトリであり、別個のファイルシステムではない場合には、それは、ルートプール rpool のコンポーネントとして、Live Upgrade によって移行されます。
次の ZFS およびゾーンパス構成はサポートされません。
ソース BE が非大域ゾーンを持ち、ゾーンパスが、最上位レベルのプールのファイルシステムのマウントポイントに設定されている場合、Live Upgradeは、代替 BE を作成するために使用できません。たとえば、zonepool プールのファイルシステムが /zonepool としてマウントされる場合、ゾーンパスを /zonepool に設定して非大域ゾーンを持つことはできません。
UFS および ZFS のゾーンの移行またはアップグレードに関する情報 – UFS 環境または ZFS 環境の移行またはアップグレードに影響を与える可能性のある次の考慮事項を確認してください。
「ゾーンが含まれているシステムを Live Upgrade を使用して移行またはアップグレードする (Solaris 10 10/08)」の説明に従って Solaris 10 10/08 リリースでゾーンを構成し、Solaris 10 5/09 以降のリリースにアップグレードした場合は、ZFS ルートファイルシステムへの移行や、Live Upgrade による Solaris 10 5/09 以降のリリースへのアップグレードが可能です。
zones/zone1 や zones/zone1/zone2 のような入れ子のディレクトリ内にゾーンルートを作成しないでください。そうしないと、ブート時にマウントが失敗する可能性があります。
Solaris 10 5/09 以降のリリースの初期インストールを実行したあとで、この手順を使用して ZFS ルートファイルシステムを作成します。また、luupgrade コマンドを使って Solaris 10 5/09 以降のリリースに ZFS ルートファイルシステムをアップグレードしたあとも、この手順を使用します。この手順を使用して作成した ZFS BE には、あとでアップグレードやパッチを適用できます。
次の手順で例として使用する Oracle Solaris 10 9/10 システムは、ZFS ルートファイルシステムと、/rpool/zones にゾーンルートのデータセットを持っています。zfs2BE という名前の ZFS BE が作成されますが、あとでそのアップグレードやパッチの適用を行うことができます。
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.26G 59.7G 98K /rpool rpool/ROOT 4.64G 59.7G 21K legacy rpool/ROOT/zfsBE 4.64G 59.7G 4.64G / rpool/dump 1.00G 59.7G 1.00G - rpool/export 44K 59.7G 23K /export rpool/export/home 21K 59.7G 21K /export/home rpool/swap 1G 60.7G 16K - rpool/zones 633M 59.7G 633M /rpool/zones
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 zfszone running /rpool/zones native shared
# lucreate -n zfs2BE Analyzing system configuration. No name for current boot environment. INFORMATION: The current boot environment is not named - assigning name <zfsBE>. Current boot environment is named <zfsBE>. Creating initial configuration for primary boot environment <zfsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. Creating configuration for boot environment <zfs2BE>. Source boot environment is <zfsBE>. Creating boot environment <zfs2BE>. Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>. Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>. Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>. Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>. Population of boot environment <zfs2BE> successful. Creation of boot environment <zfs2BE> successful.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes yes yes no - zfs2BE yes no no yes - # luactivate zfs2BE A Live Upgrade Sync operation will be performed on startup of boot environment <zfs2BE>. . . .
# init 6
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.38G 59.6G 98K /rpool rpool/ROOT 4.72G 59.6G 21K legacy rpool/ROOT/zfs2BE 4.72G 59.6G 4.64G / rpool/ROOT/zfs2BE@zfs2BE 74.0M - 4.64G - rpool/ROOT/zfsBE 5.45M 59.6G 4.64G /.alt.zfsBE rpool/dump 1.00G 59.6G 1.00G - rpool/export 44K 59.6G 23K /export rpool/export/home 21K 59.6G 21K /export/home rpool/swap 1G 60.6G 16K - rpool/zones 17.2M 59.6G 633M /rpool/zones rpool/zones-zfsBE 653M 59.6G 633M /rpool/zones-zfsBE rpool/zones-zfsBE@zfs2BE 19.9M - 633M - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - zfszone installed /rpool/zones native shared
Solaris 10 5/09 以降のリリースで、ゾーンルートを持つ ZFS ルートファイルシステムにアップグレードやパッチを適用する必要がある場合は、次の手順を使用します。このような更新は、システムのアップグレードの場合と、パッチの適用の場合があります。
次の手順では、アップグレードまたはパッチを適用する BE の名前の例として zfs2BE を使用しています。
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.38G 59.6G 100K /rpool rpool/ROOT 4.72G 59.6G 21K legacy rpool/ROOT/zfs2BE 4.72G 59.6G 4.64G / rpool/ROOT/zfs2BE@zfs2BE 75.0M - 4.64G - rpool/ROOT/zfsBE 5.46M 59.6G 4.64G / rpool/dump 1.00G 59.6G 1.00G - rpool/export 44K 59.6G 23K /export rpool/export/home 21K 59.6G 21K /export/home rpool/swap 1G 60.6G 16K - rpool/zones 22.9M 59.6G 637M /rpool/zones rpool/zones-zfsBE 653M 59.6G 633M /rpool/zones-zfsBE rpool/zones-zfsBE@zfs2BE 20.0M - 633M -
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 5 zfszone running /rpool/zones native shared
# lucreate -n zfs2BE Analyzing system configuration. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. Creating configuration for boot environment <zfs2BE>. Source boot environment is <zfsBE>. Creating boot environment <zfs2BE>. Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>. Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>. Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>. Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>. Creating snapshot for <rpool/zones> on <rpool/zones@zfs10092BE>. Creating clone for <rpool/zones@zfs2BE> on <rpool/zones-zfs2BE>. Population of boot environment <zfs2BE> successful. Creation of boot environment <zfs2BE> successful.
システムをアップグレードします。
# luupgrade -u -n zfs2BE -s /net/install/export/s10up/latest
ここで、-s オプションは Oracle Solaris インストールメディアの場所を指定します。
この処理には非常に長い時間がかかることがあります。
luupgrade 処理の詳細な例については、例 5-9 を参照してください。
新しい BE にパッチを適用します。
# luupgrade -t -n zfs2BE -t -s /patchdir patch-id-02 patch-id-04
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes yes yes no - zfs2BE yes no no yes - # luactivate zfs2BE A Live Upgrade Sync operation will be performed on startup of boot environment <zfs2BE>. . . .
# init 6
例 5-9 ゾーンルートを持つ ZFS ルートファイルシステムを Oracle Solaris 10 9/10 の ZFS ルートファイルシステムにアップグレードする
この例では、Solaris 10 10/09 システムに作成された、非ルートプール内に ZFS ルートファイルシステムとゾーンルートを持つ ZFS BE (zfsBE) を、Oracle Solaris 10 9/10 リリースにアップグレードします。この処理には長い時間がかかることがあります。その後、アップグレードした BE (zfs2BE) をアクティブにします。アップグレードを行う前に、ゾーンがインストールされブートされていることを確認してください。
この例では、zonepool プール、/zonepool/zones データセット、および zfszone ゾーンが、次のようにして作成されます。
# zpool create zonepool mirror c2t1d0 c2t5d0 # zfs create zonepool/zones # chmod 700 zonepool/zones # zonecfg -z zfszone zfszone: No such zone configured Use 'create' to begin configuring a new zone. zonecfg:zfszone> create zonecfg:zfszone> set zonepath=/zonepool/zones zonecfg:zfszone> verify zonecfg:zfszone> exit # zoneadm -z zfszone install cannot create ZFS dataset zonepool/zones: dataset already exists Preparing to install zone <zfszone>. Creating list of files to copy from the global zone. Copying <8960> files to the zone. . . .
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 zfszone running /zonepool/zones native shared # lucreate -n zfsBE . . . # luupgrade -u -n zfsBE -s /net/install/export/s10up/latest 40410 blocks miniroot filesystem is <lofs> Mounting miniroot at </net/system/export/s10up/latest/Solaris_10/Tools/Boot> Validating the contents of the media </net/system/export/s10up/latest>. The media is a standard Solaris media. The media contains an operating system upgrade image. The media contains <Solaris> version <10>. Constructing upgrade profile to use. Locating the operating system upgrade program. Checking for existence of previously scheduled Live Upgrade requests. Creating upgrade profile for BE <zfsBE>. Determining packages to install or upgrade for BE <zfsBE>. Performing the operating system upgrade of the BE <zfsBE>. CAUTION: Interrupting this process may leave the boot environment unstable or unbootable. Upgrading Solaris: 100% completed Installation of the packages from this media is complete. Updating package information on boot environment <zfsBE>. Package information successfully updated on boot environment <zfsBE>. Adding operating system patches to the BE <zfsBE>. The operating system patch installation is complete. INFORMATION: The file </var/sadm/system/logs/upgrade_log> on boot environment <zfsBE> contains a log of the upgrade operation. INFORMATION: The file </var/sadm/system/data/upgrade_cleanup> on boot environment <zfsBE> contains a log of cleanup operations required. INFORMATION: Review the files listed above. Remember that all of the files are located on boot environment <zfsBE>. Before you activate boot environment <zfsBE>, determine if any additional system maintenance is required or if additional media of the software distribution must be installed. The Solaris upgrade of the boot environment <zfsBE> is complete. Installing failsafe Failsafe install is complete. # luactivate zfs2BE # init 6 # lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes no no yes - zfs2BE yes yes yes no - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - zfszone installed /zonepool/zones native shared
UFS ルートファイルシステムとゾーンルートを持つシステムを Solaris 10 5/09 以降のリリースに移行するには、次の手順を使用します。その後、Live Upgrade を使用して ZFS BE を作成します。
次の手順では、UFS BE の名前の例として c1t1d0s0、UFS ゾーンルートとして zonepool/zfszone、ZFS ルート BE として zfsBE を使用しています。
Solaris 10 リリースが稼働しているシステムのアップグレードについては、『Oracle Solaris 10 9/10 インストールガイド (Solaris Live Upgrade とアップグレードの計画)』を参照してください。
ルートプールの要件については、「ZFS をサポートするための Oracle Solaris インストールと Live Upgrade の要件」を参照してください。
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 zfszone running /zonepool/zones native shared
# lucreate -c c1t1d0s0 -n zfsBE -p rpool
このコマンドは、新しい BE のデータセットをルートプールに確立し、現在の BE を (ゾーンも含めて) それらのデータセットにコピーします。
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- c1t1d0s0 yes no no yes - zfsBE yes yes yes no - # luactivate zfsBE A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>. . . .
# init 6
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 6.17G 60.8G 98K /rpool rpool/ROOT 4.67G 60.8G 21K /rpool/ROOT rpool/ROOT/zfsBE 4.67G 60.8G 4.67G / rpool/dump 1.00G 60.8G 1.00G - rpool/swap 517M 61.3G 16K - zonepool 634M 7.62G 24K /zonepool zonepool/zones 270K 7.62G 633M /zonepool/zones zonepool/zones-c1t1d0s0 634M 7.62G 633M /zonepool/zones-c1t1d0s0 zonepool/zones-c1t1d0s0@zfsBE 262K - 633M - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - zfszone installed /zonepool/zones native shared
例 5-10 ゾーンルートを持つ UFS ルートファイルシステムを ZFS ルートファイルシステムに移行する
この例では、UFS ルートファイルシステムとゾーンルート (/uzone/ufszone) およびルート以外の ZFS プール (pool) とゾーンルート (/pool/zfszone) を持つ Oracle Solaris 10 9/10 システムを、ZFS ルートファイルシステムに移行します。移行を行う前に、ZFS ルートプールが作成されていることと、ゾーンがインストールされブートされていることを確認してください。
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 ufszone running /uzone/ufszone native shared 3 zfszone running /pool/zones/zfszone native shared
# lucreate -c ufsBE -n zfsBE -p rpool Analyzing system configuration. No name for current boot environment. Current boot environment is named <zfsBE>. Creating initial configuration for primary boot environment <zfsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <ufsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <ufsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <zfsBE>. Source boot environment is <ufsBE>. Creating boot environment <zfsBE>. Creating file systems on boot environment <zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>. Populating file systems on boot environment <zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Copying root of zone <ufszone> to </.alt.tmp.b-EYd.mnt/uzone/ufszone>. Creating snapshot for <pool/zones/zfszone> on <pool/zones/zfszone@zfsBE>. Creating clone for <pool/zones/zfszone@zfsBE> on <pool/zones/zfszone-zfsBE>. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </rpool/ROOT>. Creating compare database for file system </>. Updating compare databases on boot environment <zfsBE>. Making boot environment <zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-DLd.mnt updating /.alt.tmp.b-DLd.mnt/platform/sun4u/boot_archive Population of boot environment <zfsBE> successful. Creation of boot environment <zfsBE> successful. # lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- ufsBE yes yes yes no - zfsBE yes no no yes - # luactivate zfsBE . . . # init 6 . . . # zfs list NAME USED AVAIL REFER MOUNTPOINT pool 628M 66.3G 19K /pool pool/zones 628M 66.3G 20K /pool/zones pool/zones/zfszone 75.5K 66.3G 627M /pool/zones/zfszone pool/zones/zfszone-ufsBE 628M 66.3G 627M /pool/zones/zfszone-ufsBE pool/zones/zfszone-ufsBE@zfsBE 98K - 627M - rpool 7.76G 59.2G 95K /rpool rpool/ROOT 5.25G 59.2G 18K /rpool/ROOT rpool/ROOT/zfsBE 5.25G 59.2G 5.25G / rpool/dump 2.00G 59.2G 2.00G - rpool/swap 517M 59.7G 16K - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - ufszone installed /uzone/ufszone native shared - zfszone installed /pool/zones/zfszone native shared