このセクションでは、共有ストレージリソースに Oracle Solaris ゾーン を配備する例を示します。
使用例 14-6 iSCSI ベースの共有ストレージデバイスを使用した Oracle Solaris ゾーンこの演習では、iSCSI ターゲットを介して共有ストレージを提供する Oracle Solaris 11 サーバー上でサンプル構成を設定します。続いて、Oracle Solaris を実行する 2 番目のサーバーでゾーンを構成およびインストールし、これらの iSCSI ベースの共有ストレージリソースを使用してゾーンをホストします。
最初に、次の pkg install コマンドのいずれかを使用して、対応するパッケージをインストールします。最初のコマンドは、マルチプロトコルストレージサーバーグループパッケージ全体をインストールします。itadm(1M) および stmfadm(1M) のマニュアルページに説明されているように、2 番目のコマンドは、一般的なマルチプロトコル SCSI ターゲット (COMSTAR) フレームワーク内で iSCSI のターゲットサポートだけをインストールします。
root@target:~# pkg install group/feature/storage-server root@target:~# pkg install system/storage/iscsi/iscsi-target
次に、このサーバーから iSCSI ターゲットをエクスポートするためのバッキングストアを作成します。zfs コマンドで、3 つの iSCSI ターゲット論理ユニット用のバッキングストアとして 3 つの ZFS ボリュームを、それぞれ 10G バイトのサイズで作成し、ターゲットサーバー rpool/export データセット内に格納します。
root@target:~# zfs create -V 10G rpool/export/zonevol1 root@target:~# zfs create -V 10G rpool/export/zonevol2 root@target:~# zfs create -V 10G rpool/export/zonevol3
バッキングストアを設定したあと、stmfadm コマンドを使用して、各 ZFS ボリュームのターゲット論理ユニットを作成します。これにより、それぞれに対応したデバイス ID (WWN) が与えられ、後からストレージ URI でクライアントホストでの iSCSI ターゲット検出に使用されます。
root@target:~# stmfadm create-lu /dev/zvol/rdsk/rpool/export/zonevol1 Logical unit created: 600144F035FF8500000050C884E50001 root@target:~# stmfadm create-lu /dev/zvol/rdsk/rpool/export/zonevol2 Logical unit created: 600144F035FF8500000050C884E80002 root@target:~# stmfadm create-lu /dev/zvol/rdsk/rpool/export/zonevol3 Logical unit created: 600144F035FF8500000050C884EC0003
stmfadm list-lu 構文で、構成された論理ユニットを表示できます。
root@target:~# stmfadm list-lu LU Name: 600144F035FF8500000050C884E50001 LU Name: 600144F035FF8500000050C884E80002 LU Name: 600144F035FF8500000050C884EC0003
stmfadm list-lu -v 構文で、構成済みの論理ユニットの詳細を照会できます。
root@target:~# stmfadm list-lu -v LU Name: 600144F035FF8500000050C884E50001 Operational Status : Online Provider Name : sbd Alias : /dev/zvol/rdsk/rpool/export/zonevol1 View Entry Count : 0 Data File : /dev/zvol/rdsk/rpool/export/zonevol1 Meta File : not set Size : 10737418240 Block Size : 512 Management URL : not set Software ID : not set Vendor ID : SUN Product ID : COMSTAR Serial Num : not set Write Protect : Disabled Write Cache Mode Select: Enabled Writeback Cache : Enabled Access State : Active
論理ユニットを iSCSI イニシエータで使用できるようにするには、stmfadm add-view コマンドで、ターゲットサーバーに論理ユニットビューを追加します。
root@target:~# stmfadm add-view 600144F035FF8500000050C884E50001 root@target:~# stmfadm add-view 600144F035FF8500000050C884E80002 root@target:~# stmfadm add-view 600144F035FF8500000050C884EC0003
次にターゲットサーバー上で iSCSI ターゲットを構成します。最初に svcadm enable を使用して、iSCSI ターゲット SMF サービスを有効にします。
root@target:~# svcadm enable -r svc:/network/iscsi/target:default
次に、itadm create-target を使用して iSCSI ターゲット自体を作成します。
root@target:~# itadm create-target Target iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a successfully created
itadm list-target または stmfadm list-target のどちらかを使用すると、構成済みの iSCSI ターゲットに関する詳細を照会できます。
root@target:~# itadm list-target -v TARGET NAME STATE SESSIONS iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a online 0 alias: - auth: none (defaults) targetchapuser: - targetchapsecret: unset tpg-tags: default root@target:~# stmfadm list-target -v Target: iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a Operational Status : Online Provider Name : iscsit Alias : - Protocol : iSCSI Sessions : 0
最後の手順として、suriadm(1M) を使用して、2 番目のサーバー上のゾーン構成で使用される、対応するストレージ URI を取得します。論理ユニットごとに、ローカルデバイスパスエントリが /dev に作成されています。suriadm コマンドは、iSCSI ストレージ URI の作成に使用されます。
root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884E50001d0 iscsi://target/luname.naa.600144f035ff8500000050c884e50001 root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884E80002d0 iscsi://target/luname.naa.600144f035ff8500000050c884e80002 root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884EC0003d0 iscsi://target/luname.naa.600144f035ff8500000050c884ec0003
これは、iSCSI ターゲットストレージを提供するサンプルサーバーで必要とされるすべてのタスクを行います。
これで、iSCSI で提供されるこの共有ストレージを使用した、2 番目のサーバーでのゾーンの構成およびインストールに進むことができます。
最初の手順として、iSCSI イニシエータとして選択されたクライアントサーバー上で対応するパッケージをインストールします。
root@initiator:~# pkg install pkg:/system/storage/iscsi/iscsi-initiator
次に、zonecfg コマンドを使用して、rootzpool リソースおよび zpool リソースでゾーンを構成します。ゾーンをホストする共有ストレージリソースとして構成した 3 つの iSCSI ターゲット論理ユニットを使用します。ターゲットサーバーでは、以前に suriadm で取得した iSCSI ストレージ URI を使用します。
root@initiator:~# zonecfg -z iscsi Use 'create' to begin configuring a new zone. zonecfg:iscsi> create create: Using system default template 'SYSdefault' zonecfg:iscsi> set zonepath=/iscsi zonecfg:iscsi> add rootzpool zonecfg:iscsi:rootzpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884E50001 zonecfg:iscsi:rootzpool> end zonecfg:iscsi> add zpool zonecfg:iscsi:zpool> set name=data zonecfg:iscsi:zpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884E80002 zonecfg:iscsi:zpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884EC0003 zonecfg:iscsi:zpool> end zonecfg:iscsi> commit zonecfg:iscsi> exit
これで、zoneadm install を使用してゾーンをインストールする準備が整いました。
root@initiator:~# zoneadm -z iscsi install Configured zone storage resource(s) from: iscsi://target/luname.naa.600144F035FF8500000050C884E50001 Created zone zpool: iscsi_rpool Configured zone storage resource(s) from: iscsi://target/luname.naa.600144F035FF8500000050C884E80002 iscsi://target/luname.naa.600144F035FF8500000050C884EC0003 Created zone zpool: iscsi_data Progress being logged to /var/log/zones/zoneadm.20130125T112209Z.iscsi.install Image: Preparing at /iscsi/root. AI Manifest: /tmp/manifest.xml.pmai7h SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml Zonename: iscsi Installation: Starting ... Creating IPS image Startup linked: 1/1 done Installing packages from: solaris origin: http://pkg.oracle.com/solaris/release/ DOWNLOAD PKGS FILES XFER (MB) SPEED Completed 183/183 33556/33556 222.2/222.2 3.4M/s PHASE ITEMS Installing new actions 46825/46825 Updating package state database Done Updating image state Done Creating fast lookup database Done Installation: Succeeded Note: Man pages can be obtained by installing pkg:/system/manual done. Done: Installation completed in 266.487 seconds. Next Steps: Boot the zone, then log into the zone console (zlogin -C) to complete the configuration process. Log saved in non-global zone as /iscsi/root/var/log/zones/zoneadm.20130125T112209Z.iscsi.install root@initiator:~#
ゾーンのインストールが完了したら、zoneadm(1M) list で、ゾーンが正しくインストールされたことを検証します。
root@initiator:~# zoneadm list -cp 0:global:running:/::solaris:shared:-:none -:iscsi:installed:/iscsi:a0a4ba0d-9d6d-cf2c-cc42-f123a5e3ee11:solaris:excl:-:
最後に、zpool コマンドを使用して、このゾーンに関連付けられた、新しく作成した ZFS ストレージプールを監視できます。
root@initiator:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT iscsi_data 9.94G 83.5K 9.94G 0% 1.00x ONLINE - iscsi_rpool 9.94G 436M 9.51G 4% 1.00x ONLINE - root@initiator:~# zpool status -v iscsi_rpool pool: iscsi_rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM iscsi_rpool ONLINE 0 0 0 c0t600144F035FF8500000050C884E50001d0 ONLINE 0 0 0 root@initiator:~# zpool status -v iscsi_data pool: iscsi_data state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM iscsi_data ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c0t600144F035FF8500000050C884E80002d0 ONLINE 0 0 0 c0t600144F035FF8500000050C884EC0003d0 ONLINE 0 0 0
ゾーンのインストール全体がこの ZFS ストレージプール内に含まれます。このゾーンの ZFS データセットレイアウトは次のとおりです。
root@initiator:~# zfs list -t all|grep iscsi iscsi_data 83.5K 9.78G 31K /iscsi_data iscsi_rpool 436M 9.36G 32K /iscsi iscsi_rpool/rpool 436M 9.36G 31K /rpool iscsi_rpool/rpool/ROOT 436M 9.36G 31K legacy iscsi_rpool/rpool/ROOT/solaris 436M 9.36G 390M /iscsi/root iscsi_rpool/rpool/ROOT/solaris@install 64K - 390M - iscsi_rpool/rpool/ROOT/solaris/var 46.1M 9.36G 45.4M /iscsi/root/var iscsi_rpool/rpool/ROOT/solaris/var@install 644K - 45.4M - iscsi_rpool/rpool/VARSHARE 31K 9.36G 31K /var/share iscsi_rpool/rpool/export 62K 9.36G 31K /export iscsi_rpool/rpool/export/home 31K 9.36G 31K /export/home
iSCSI ベースの共有ストレージリソースでホストされる新しいゾーンは正しくインストールされており、zoneadm(1M) boot を使用してブートすることができるようになっています。
ゾーンがブートされたあと、ゾーン管理者は、仮想化された ZFS データセットおよびストレージプールをゾーン内から監視します。
root@iscsi:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT data 9.94G 85K 9.94G 0% 1.00x ONLINE - rpool 9.94G 449M 9.50G 4% 1.00x ONLINE - root@iscsi:~# zpool status -v pool: data state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM data ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c0t600144F035FF8500000050C884E80002d0 ONLINE 0 0 0 c0t600144F035FF8500000050C884EC0003d0 ONLINE 0 0 0 pool: rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 c0t600144F035FF8500000050C884E50001d0 ONLINE 0 0 0 root@iscsi:~# zfs list -t all NAME USED AVAIL REFER MOUNTPOINT data 85K 9.78G 31K /data rpool 464M 9.33G 31K /rpool rpool/ROOT 464M 9.33G 31K legacy rpool/ROOT/solaris 464M 9.33G 416M / rpool/ROOT/solaris@install 1.83M - 390M - rpool/ROOT/solaris/var 46.2M 9.33G 45.6M /var rpool/ROOT/solaris/var@install 674K - 45.4M - rpool/VARSHARE 39K 9.33G 39K /var/share rpool/export 96.5K 9.33G 32K /export rpool/export/home 64.5K 9.33G 32K /export/home rpool/export/home/user 32.5K 9.33G 32.5K /export/home/user使用例 14-7 DAS ストレージデバイスを使用した Oracle Solaris ゾーン の例
この演習では、直接接続したローカルストレージデバイスを使用して、Oracle Solaris 上でゾーンを構成しインストールします。この方法は通常、異なるホスト間で移植できないことに注意してください。
最初に、format コマンドを使用して、利用可能なローカルディスクを検出し、suriadm lookup-uri を使用して、ゾーン構成内で使用される対応するストレージ URI を構築します。
root@host:~# format Searching for disks...done AVAILABLE DISK SELECTIONS: 1. c4t1d0 <SEAGATE-ST336704LSUN36G-0326-33.92GB> /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@1,0 2. c4t2d0 <FUJITSU-MAT3073NC-0104-68.49GB> /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@2,0 3. c4t3d0 <SEAGATE-ST336704LSUN36G-0326-33.92GB> /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@3,0 4. c4t4d0 <FUJITSU-MAW3073NC-0103-68.49GB> /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@4,0 root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t1d0 dev:dsk/c4t1d0 root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t2d0 dev:dsk/c4t2d0 root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t3d0 dev:dsk/c4t3d0 root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t4d0 dev:dsk/c4t4d0
これらのストレージ URI を使用して、rootzpool リソースおよび zpool リソース (どちらもミラー化された ZFS ストレージプールを示す) でゾーンを構成します。
root@host:~# zonecfg -z disk Use 'create' to begin configuring a new zone. zonecfg:disk> create create: Using system default template 'SYSdefault' zonecfg:disk> set zonepath=/disk zonecfg:disk> add rootzpool zonecfg:disk:rootzpool> add storage dev:dsk/c4t1d0 zonecfg:disk:rootzpool> add storage dev:dsk/c4t3d0 zonecfg:disk:rootzpool> end zonecfg:disk> add zpool zonecfg:disk:zpool> set name=dpool zonecfg:disk:zpool> add storage dev:dsk/c4t2d0 zonecfg:disk:zpool> add storage dev:dsk/c4t4d0 zonecfg:disk:zpool> end zonecfg:disk> commit zonecfg:disk> exit
次にゾーンをインストールします。
root@host:~# zoneadm -z disk install Created zone zpool: disk_rpool Created zone zpool: disk_dpool Progress being logged to /var/log/zones/zoneadm.20130213T132236Z.disk.install Image: Preparing at /disk/root. AI Manifest: /tmp/manifest.xml.rOaOhe SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml Zonename: disk Installation: Starting ... Creating IPS image Startup linked: 1/1 done Installing packages from: solaris origin: http://pkg.oracle.com/solaris/release/ DOWNLOAD PKGS FILES XFER (MB) SPEED Completed 183/183 33556/33556 222.2/222.2 2.0M/s PHASE ITEMS Installing new actions 46825/46825 Updating package state database Done Updating image state Done Creating fast lookup database Done Installation: Succeeded Note: Man pages can be obtained by installing pkg:/system/manual done. Done: Installation completed in 308.358 seconds. Next Steps: Boot the zone, then log into the zone console (zlogin -C) to complete the configuration process. Log saved in non-global zone as /disk/root/var/log/zones/zoneadm.20130213T132236Z.disk.install root@host:~#
ゾーンのインストール後、次の 2 つの新しい ZFS ストレージプールがオンラインになります。
root@host:/# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT disk_dpool 68G 83.5K 68.0G 0% 1.00x ONLINE - disk_rpool 33.8G 434M 33.3G 1% 1.00x ONLINE - root@host:/# zpool status -v disk_rpool pool: disk_rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM disk_rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c4t1d0 ONLINE 0 0 0 c4t3d0 ONLINE 0 0 0 root@host:/# zpool status -v disk_dpool pool: disk_dpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM disk_dpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c4t2d0 ONLINE 0 0 0 c4t4d0 ONLINE 0 0 0
ゾーンのインストール全体がこの ZFS ストレージプール内に含まれます。このゾーンに対して次の ZFS データセットレイアウトが表示されます。
root@host:~# zfs list -t all|grep disk disk_dpool 83.5K 66.9G 31K /disk_dpool disk_rpool 434M 32.8G 32K /disk disk_rpool/rpool 433M 32.8G 31K /rpool disk_rpool/rpool/ROOT 433M 32.8G 31K legacy disk_rpool/rpool/ROOT/solaris 433M 32.8G 389M /disk/root disk_rpool/rpool/ROOT/solaris@install 63K - 389M - disk_rpool/rpool/ROOT/solaris/var 43.8M 32.8G 43.2M /disk/root/var disk_rpool/rpool/ROOT/solaris/var@install 584K - 43.2M - disk_rpool/rpool/VARSHARE 31K 32.8G 31K /var/share disk_rpool/rpool/export 62K 32.8G 31K /export disk_rpool/rpool/export/home 31K 32.8G 31K /export/home
ローカルデバイスストレージリソースでホストされる新しいゾーンは正しくインストールされており、zoneadm boot コマンドを使用してブートできるようになっています。
ゾーンがブートされたあと、ゾーン管理者は、仮想化された ZFS データセットおよびストレージプールをゾーン内部から監視できます。
root@disk:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT dpool 68G 83.5K 68.0G 0% 1.00x ONLINE - rpool 33.8G 472M 33.3G 1% 1.00x ONLINE - root@disk:~# zpool status -v pool: dpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM dpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c4t2d0 ONLINE 0 0 0 c4t4d0 ONLINE 0 0 0 pool: rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c4t1d0 ONLINE 0 0 0 c4t3d0 ONLINE 0 0 0 root@disk:~# zfs list -t all NAME USED AVAIL REFER MOUNTPOINT dpool 83.5K 66.9G 31K /dpool rpool 465M 32.8G 31K /rpool rpool/ROOT 465M 32.8G 31K legacy rpool/ROOT/solaris 465M 32.8G 416M / rpool/ROOT/solaris@install 5.60M - 389M - rpool/ROOT/solaris/var 43.9M 32.8G 43.3M /var rpool/ROOT/solaris/var@install 618K - 43.2M - rpool/VARSHARE 39K 32.8G 39K /var/share rpool/export 96.5K 32.8G 32K /export rpool/export/home 64.5K 32.8G 32K /export/home rpool/export/home/user 32.5K 32.8G 32.5K /export/home/user使用例 14-8 ファイバチャネルベースのストレージデバイスを使用した Oracle Solaris ゾーン
この演習では、ファイバチャネルを介して提供される共有ストレージデバイスを使用して、Oracle Solaris 上でゾーンを構成しインストールします。
最初に、fcinfo lu コマンドを使用することによって、現在ホストから確認できるファイバチャネルの論理ユニットを検出します。
root@host:~# fcinfo lu -v OS Device Name: /dev/rdsk/c0t600144F0DBF8AF190000510979640005d0s2 HBA Port WWN: 10000000c9991d8c Remote Port WWN: 21000024ff3ee89f LUN: 5 Vendor: SUN Product: ZFS Storage 7120 Device Type: Disk Device
suriadm lookup-uri を使用して、デバイスパスに基づいてストレージ URI を構築します。クエリーで LU 全体を表すストレージ URI を取得できるように、デバイス名のスライス部分を削除します。
root@host:~# suriadm lookup-uri /dev/dsk/c0t600144F0DBF8AF190000510979640005d0 lu:luname.naa.600144f0dbf8af190000510979640005 lu:initiator.naa.10000000c9991d8c,target.naa.21000024ff3ee89f,luname.naa.600144f0dbf8af190000510979640005 dev:dsk/c0t600144F0DBF8AF190000510979640005d0
表示された 3 つの URI から、ゾーン構成で使用する、luname のみの形式の論理ユニットストレージ URI を選択します。
root@host:~# zonecfg -z fc Use 'create' to begin configuring a new zone. zonecfg:fc> create create: Using system default template 'SYSdefault' zonecfg:fc> set zonepath=/fc zonecfg:fc> add rootzpool zonecfg:fc:rootzpool> add storage lu:luname.naa.600144f0dbf8af190000510979640005 zonecfg:fc:rootzpool> end zonecfg:fc> commit zonecfg:fc> exit
これでゾーンをインストールする準備が整いました。
root@host:~# zoneadm -z fc install Created zone zpool: fc_rpool Progress being logged to /var/log/zones/zoneadm.20130214T045957Z.fc.install Image: Preparing at /fc/root. AI Manifest: /tmp/manifest.xml.K9aaow SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml Zonename: fc Installation: Starting ... Creating IPS image Startup linked: 1/1 done Installing packages from: solaris origin: http://pkg.oracle.com/solaris/release/ DOWNLOAD PKGS FILES XFER (MB) SPEED Completed 190/190 34246/34246 231.3/231.3 7.2M/s PHASE ITEMS Installing new actions 48231/48231 Updating package state database Done Updating image state Done Creating fast lookup database Done Installation: Succeeded Note: Man pages can be obtained by installing pkg:/system/manual done. Done: Installation completed in 104.318 seconds. Next Steps: Boot the zone, then log into the zone console (zlogin -C) to complete the configuration process. Log saved in non-global zone as /fc/root/var/log/zones/zoneadm.20130214T045957Z.fc.install root@host:~#
ゾーンのインストール後、次の新しい ZFS ストレージプールがオンラインになります。
root@host:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT fc_rpool 39.8G 441M 39.3G 1% 1.00x ONLINE - root@host:~# zpool status -v fc_rpool pool: fc_rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM fc_rpool ONLINE 0 0 0 c0t600144F0DBF8AF190000510979640005d0 ONLINE 0 0 0
ゾーンのインストール全体がこの ZFS ストレージプール内に含まれます。ゾーンには次の ZFS データセットレイアウトがあります。
root@host:~# zfs list -t all|grep fc fc_rpool 440M 38.7G 32K /fc fc_rpool/rpool 440M 38.7G 31K /rpool fc_rpool/rpool/ROOT 440M 38.7G 31K legacy fc_rpool/rpool/ROOT/solaris 440M 38.7G 405M /fc/root fc_rpool/rpool/ROOT/solaris@install 67K - 405M - fc_rpool/rpool/ROOT/solaris/var 34.3M 38.7G 33.6M /fc/root/var fc_rpool/rpool/ROOT/solaris/var@install 665K - 33.6M - fc_rpool/rpool/VARSHARE 31K 38.7G 31K /var/share fc_rpool/rpool/export 62K 38.7G 31K /export fc_rpool/rpool/export/home 31K 38.7G 31K /export/home
ファイバチャネルターゲットから提供される共有ストレージでホストされる新しいゾーンは、正しくインストールされました。これで、zoneadm boot を使用してこのゾーンをブートできます。
ゾーンがブートされたあと、ゾーン管理者は、仮想化された ZFS データセットおよびストレージプールをゾーン内部から監視できます。
root@fc:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT rpool 39.8G 451M 39.3G 1% 1.00x ONLINE - root@fc:~# zpool status -v pool: rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 c0t600144F0DBF8AF190000510979640005d0 ONLINE 0 0 0 root@fc:~# zfs list -t all NAME USED AVAIL REFER MOUNTPOINT rpool 467M 38.7G 31K /rpool rpool/ROOT 467M 38.7G 31K legacy rpool/ROOT/solaris 467M 38.7G 430M / rpool/ROOT/solaris@install 1.90M - 405M - rpool/ROOT/solaris/var 34.4M 38.7G 33.7M /var rpool/ROOT/solaris/var@install 703K - 33.6M - rpool/VARSHARE 39K 38.7G 39K /var/share rpool/export 96.5K 38.7G 32K /export rpool/export/home 64.5K 38.7G 32K /export/home rpool/export/home/user 32.5K 38.7G 32.5K /export/home/user