本节介绍在共享存储资源上部署 Oracle Solaris 区域的示例。
示例 14-6 使用基于 iSCSI 的共享存储设备的 Oracle Solaris 区域此练习在 Oracle Solaris 11 服务器上设置了一个样例配置,该服务器将通过一个 iSCSI 目标提供共享存储。然后,我们将在运行 Oracle Solaris 的第二个服务器上配置并安装一个区域,并使用这些基于 iSCSI 的共享存储资源托管区域。
首先,使用以下 pkg install 命令之一安装相应的软件包。第一条命令安装整个多协议存储服务器组软件包。第二条命令仅为常见多协议 SCSI 目标 (common multi-protocol SCSI target, COMSTAR) 框架内部的 iSCSI 安装目标支持,如 itadm(1M) 和 stmfadm(1M) 手册页中所述。
root@target:~# pkg install group/feature/storage-server root@target:~# pkg install system/storage/iscsi/iscsi-target
然后,为要从此服务器中导出的 iSCSI 目标创建后备存储。使用 zfs 命令为存储在目标服务器 rpool/export 数据集中的三个 iSCSI 目标逻辑单元(每个大小为 10 GB)创建三个 ZFS 卷作为后备存储。
root@target:~# zfs create -V 10G rpool/export/zonevol1 root@target:~# zfs create -V 10G rpool/export/zonevol2 root@target:~# zfs create -V 10G rpool/export/zonevol3
在设置后备存储后,请使用 stmfadm 命令为每个 ZFS 卷创建目标逻辑单元。这会让我们知道每个卷的相应设备 ID (WWN),这个 ID 稍后会用于客户机主机上针对 iSCSI 目标搜索的存储 URI。
root@target:~# stmfadm create-lu /dev/zvol/rdsk/rpool/export/zonevol1 Logical unit created: 600144F035FF8500000050C884E50001 root@target:~# stmfadm create-lu /dev/zvol/rdsk/rpool/export/zonevol2 Logical unit created: 600144F035FF8500000050C884E80002 root@target:~# stmfadm create-lu /dev/zvol/rdsk/rpool/export/zonevol3 Logical unit created: 600144F035FF8500000050C884EC0003
您可以使用 stmfadm list-lu 语法查看已配置逻辑单元。
root@target:~# stmfadm list-lu LU Name: 600144F035FF8500000050C884E50001 LU Name: 600144F035FF8500000050C884E80002 LU Name: 600144F035FF8500000050C884EC0003
您可以使用 stmfadm list-lu -v 语法查询有关已配置逻辑单元的详细信息。
root@target:~# stmfadm list-lu -v LU Name: 600144F035FF8500000050C884E50001 Operational Status : Online Provider Name : sbd Alias : /dev/zvol/rdsk/rpool/export/zonevol1 View Entry Count : 0 Data File : /dev/zvol/rdsk/rpool/export/zonevol1 Meta File : not set Size : 10737418240 Block Size : 512 Management URL : not set Software ID : not set Vendor ID : SUN Product ID : COMSTAR Serial Num : not set Write Protect : Disabled Write Cache Mode Select: Enabled Writeback Cache : Enabled Access State : Active
要使逻辑单元可用于 iSCSI 启动器,请使用 stmfadm add-view 命令向目标服务器添加一个逻辑单元视图。
root@target:~# stmfadm add-view 600144F035FF8500000050C884E50001 root@target:~# stmfadm add-view 600144F035FF8500000050C884E80002 root@target:~# stmfadm add-view 600144F035FF8500000050C884EC0003
现在我们在目标服务器上配置 iSCSI 目标。首先,使用 svcadm enable 启用 iSCSI 目标 SMF 服务。
root@target:~# svcadm enable -r svc:/network/iscsi/target:default
然后,使用 itadm create-target 创建 iSCSI 目标本身。
root@target:~# itadm create-target Target iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a successfully created
您可以使用 itadm list-target 或 stmfadm list-target 查询有关已配置 iSCSI 目标的详细信息。
root@target:~# itadm list-target -v TARGET NAME STATE SESSIONS iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a online 0 alias: - auth: none (defaults) targetchapuser: - targetchapsecret: unset tpg-tags: default root@target:~# stmfadm list-target -v Target: iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a Operational Status : Online Provider Name : iscsit Alias : - Protocol : iSCSI Sessions : 0
最后一步是使用 suriadm(1M) 获取相应的存储 URI,以便在第二个服务器上的区域配置中使用。对于每个逻辑单元,已在 /dev 中创建本地设备路径条目。suriadm 命令用于创建 iSCSI 存储 URI。
root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884E50001d0 iscsi://target/luname.naa.600144f035ff8500000050c884e50001 root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884E80002d0 iscsi://target/luname.naa.600144f035ff8500000050c884e80002 root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884EC0003d0 iscsi://target/luname.naa.600144f035ff8500000050c884ec0003
这样就完成了在提供 iSCSI 目标存储的样例服务器上需要执行的所有任务。
现在即可使用通过 iSCSI 提供的这个共享存储在第二个服务器上继续配置并安装区域。
第一步是在选择作为 iSCSI 启动器的客户机服务器上安装相应的软件包。
root@initiator:~# pkg install pkg:/system/storage/iscsi/iscsi-initiator
接下来,我们使用 zonecfg 命令配置具有 rootzpool 和 zpool 资源的区域。我们将使用三个配置为共享存储资源的 iSCSI 目标逻辑单元来托管该区域。我们将在目标服务器上使用之前通过 suriadm 获取的 iSCSI 存储 URI。
root@initiator:~# zonecfg -z iscsi Use 'create' to begin configuring a new zone. zonecfg:iscsi> create create: Using system default template 'SYSdefault' zonecfg:iscsi> set zonepath=/iscsi zonecfg:iscsi> add rootzpool zonecfg:iscsi:rootzpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884E50001 zonecfg:iscsi:rootzpool> end zonecfg:iscsi> add zpool zonecfg:iscsi:zpool> set name=data zonecfg:iscsi:zpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884E80002 zonecfg:iscsi:zpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884EC0003 zonecfg:iscsi:zpool> end zonecfg:iscsi> commit zonecfg:iscsi> exit
现在即可使用 zoneadm install 安装该区域。
root@initiator:~# zoneadm -z iscsi install Configured zone storage resource(s) from: iscsi://target/luname.naa.600144F035FF8500000050C884E50001 Created zone zpool: iscsi_rpool Configured zone storage resource(s) from: iscsi://target/luname.naa.600144F035FF8500000050C884E80002 iscsi://target/luname.naa.600144F035FF8500000050C884EC0003 Created zone zpool: iscsi_data Progress being logged to /var/log/zones/zoneadm.20130125T112209Z.iscsi.install Image: Preparing at /iscsi/root. AI Manifest: /tmp/manifest.xml.pmai7h SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml Zonename: iscsi Installation: Starting ... Creating IPS image Startup linked: 1/1 done Installing packages from: solaris origin: http://pkg.oracle.com/solaris/release/ DOWNLOAD PKGS FILES XFER (MB) SPEED Completed 183/183 33556/33556 222.2/222.2 3.4M/s PHASE ITEMS Installing new actions 46825/46825 Updating package state database Done Updating image state Done Creating fast lookup database Done Installation: Succeeded Note: Man pages can be obtained by installing pkg:/system/manual done. Done: Installation completed in 266.487 seconds. Next Steps: Boot the zone, then log into the zone console (zlogin -C) to complete the configuration process. Log saved in non-global zone as /iscsi/root/var/log/zones/zoneadm.20130125T112209Z.iscsi.install root@initiator:~#
区域安装完成后,请使用 zoneadm(1M) list 检验该区域安装是否正确。
root@initiator:~# zoneadm list -cp 0:global:running:/::solaris:shared:-:none -:iscsi:installed:/iscsi:a0a4ba0d-9d6d-cf2c-cc42-f123a5e3ee11:solaris:excl:-:
最后,我们可以使用 zpool 命令观察与此区域关联的新建 ZFS 存储池。
root@initiator:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT iscsi_data 9.94G 83.5K 9.94G 0% 1.00x ONLINE - iscsi_rpool 9.94G 436M 9.51G 4% 1.00x ONLINE - root@initiator:~# zpool status -v iscsi_rpool pool: iscsi_rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM iscsi_rpool ONLINE 0 0 0 c0t600144F035FF8500000050C884E50001d0 ONLINE 0 0 0 root@initiator:~# zpool status -v iscsi_data pool: iscsi_data state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM iscsi_data ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c0t600144F035FF8500000050C884E80002d0 ONLINE 0 0 0 c0t600144F035FF8500000050C884EC0003d0 ONLINE 0 0 0
区域安装将完全包含在此 ZFS 存储池内部。此区域的 ZFS 数据集布局如下。
root@initiator:~# zfs list -t all|grep iscsi iscsi_data 83.5K 9.78G 31K /iscsi_data iscsi_rpool 436M 9.36G 32K /iscsi iscsi_rpool/rpool 436M 9.36G 31K /rpool iscsi_rpool/rpool/ROOT 436M 9.36G 31K legacy iscsi_rpool/rpool/ROOT/solaris 436M 9.36G 390M /iscsi/root iscsi_rpool/rpool/ROOT/solaris@install 64K - 390M - iscsi_rpool/rpool/ROOT/solaris/var 46.1M 9.36G 45.4M /iscsi/root/var iscsi_rpool/rpool/ROOT/solaris/var@install 644K - 45.4M - iscsi_rpool/rpool/VARSHARE 31K 9.36G 31K /var/share iscsi_rpool/rpool/export 62K 9.36G 31K /export iscsi_rpool/rpool/export/home 31K 9.36G 31K /export/home
基于 iSCSI 的共享存储资源托管的新区域已成功安装,现在即可使用 zoneadm(1M) boot 进行引导。
在引导该区域后,区域管理员可以从该区域的内部观察 ZFS 虚拟数据集和存储池。
root@iscsi:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT data 9.94G 85K 9.94G 0% 1.00x ONLINE - rpool 9.94G 449M 9.50G 4% 1.00x ONLINE - root@iscsi:~# zpool status -v pool: data state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM data ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c0t600144F035FF8500000050C884E80002d0 ONLINE 0 0 0 c0t600144F035FF8500000050C884EC0003d0 ONLINE 0 0 0 pool: rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 c0t600144F035FF8500000050C884E50001d0 ONLINE 0 0 0 root@iscsi:~# zfs list -t all NAME USED AVAIL REFER MOUNTPOINT data 85K 9.78G 31K /data rpool 464M 9.33G 31K /rpool rpool/ROOT 464M 9.33G 31K legacy rpool/ROOT/solaris 464M 9.33G 416M / rpool/ROOT/solaris@install 1.83M - 390M - rpool/ROOT/solaris/var 46.2M 9.33G 45.6M /var rpool/ROOT/solaris/var@install 674K - 45.4M - rpool/VARSHARE 39K 9.33G 39K /var/share rpool/export 96.5K 9.33G 32K /export rpool/export/home 64.5K 9.33G 32K /export/home rpool/export/home/user 32.5K 9.33G 32.5K /export/home/user示例 14-7 使用 DAS 存储设备的示例 Oracle Solaris 区域
此练习使用直接连接的本地设备在 Oracle Solaris 上配置并安装区域。请注意,此方法在不同的主机之间通常不可移植。
首先,使用 format 命令搜索可用的本地磁盘,并使用 suriadm lookup-uri 构建相应的存储 URI 以便在区域配置内部使用。
root@host:~# format Searching for disks...done AVAILABLE DISK SELECTIONS: 1. c4t1d0 <SEAGATE-ST336704LSUN36G-0326-33.92GB> /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@1,0 2. c4t2d0 <FUJITSU-MAT3073NC-0104-68.49GB> /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@2,0 3. c4t3d0 <SEAGATE-ST336704LSUN36G-0326-33.92GB> /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@3,0 4. c4t4d0 <FUJITSU-MAW3073NC-0103-68.49GB> /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@4,0 root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t1d0 dev:dsk/c4t1d0 root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t2d0 dev:dsk/c4t2d0 root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t3d0 dev:dsk/c4t3d0 root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t4d0 dev:dsk/c4t4d0
我们可使用这些存储 URI 配置具有 rootzpool 和 zpool 资源的区域,这两种资源都表示镜像 ZFS 存储池。
root@host:~# zonecfg -z disk Use 'create' to begin configuring a new zone. zonecfg:disk> create create: Using system default template 'SYSdefault' zonecfg:disk> set zonepath=/disk zonecfg:disk> add rootzpool zonecfg:disk:rootzpool> add storage dev:dsk/c4t1d0 zonecfg:disk:rootzpool> add storage dev:dsk/c4t3d0 zonecfg:disk:rootzpool> end zonecfg:disk> add zpool zonecfg:disk:zpool> set name=dpool zonecfg:disk:zpool> add storage dev:dsk/c4t2d0 zonecfg:disk:zpool> add storage dev:dsk/c4t4d0 zonecfg:disk:zpool> end zonecfg:disk> commit zonecfg:disk> exit
现在可以安装区域。
root@host:~# zoneadm -z disk install Created zone zpool: disk_rpool Created zone zpool: disk_dpool Progress being logged to /var/log/zones/zoneadm.20130213T132236Z.disk.install Image: Preparing at /disk/root. AI Manifest: /tmp/manifest.xml.rOaOhe SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml Zonename: disk Installation: Starting ... Creating IPS image Startup linked: 1/1 done Installing packages from: solaris origin: http://pkg.oracle.com/solaris/release/ DOWNLOAD PKGS FILES XFER (MB) SPEED Completed 183/183 33556/33556 222.2/222.2 2.0M/s PHASE ITEMS Installing new actions 46825/46825 Updating package state database Done Updating image state Done Creating fast lookup database Done Installation: Succeeded Note: Man pages can be obtained by installing pkg:/system/manual done. Done: Installation completed in 308.358 seconds. Next Steps: Boot the zone, then log into the zone console (zlogin -C) to complete the configuration process. Log saved in non-global zone as /disk/root/var/log/zones/zoneadm.20130213T132236Z.disk.install root@host:~#
区域安装后,以下两个新的 ZFS 存储池将处于联机状态。
root@host:/# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT disk_dpool 68G 83.5K 68.0G 0% 1.00x ONLINE - disk_rpool 33.8G 434M 33.3G 1% 1.00x ONLINE - root@host:/# zpool status -v disk_rpool pool: disk_rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM disk_rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c4t1d0 ONLINE 0 0 0 c4t3d0 ONLINE 0 0 0 root@host:/# zpool status -v disk_dpool pool: disk_dpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM disk_dpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c4t2d0 ONLINE 0 0 0 c4t4d0 ONLINE 0 0 0
区域安装将完全包含在此 ZFS 存储池内部。将显示此区域的以下 ZFS 数据集布局。
root@host:~# zfs list -t all|grep disk disk_dpool 83.5K 66.9G 31K /disk_dpool disk_rpool 434M 32.8G 32K /disk disk_rpool/rpool 433M 32.8G 31K /rpool disk_rpool/rpool/ROOT 433M 32.8G 31K legacy disk_rpool/rpool/ROOT/solaris 433M 32.8G 389M /disk/root disk_rpool/rpool/ROOT/solaris@install 63K - 389M - disk_rpool/rpool/ROOT/solaris/var 43.8M 32.8G 43.2M /disk/root/var disk_rpool/rpool/ROOT/solaris/var@install 584K - 43.2M - disk_rpool/rpool/VARSHARE 31K 32.8G 31K /var/share disk_rpool/rpool/export 62K 32.8G 31K /export disk_rpool/rpool/export/home 31K 32.8G 31K /export/home
本地设备存储资源托管的新区域已成功安装,现在即可使用 zoneadm boot 命令进行引导。
在引导该区域后,区域管理员可以从该区域的内部观察 ZFS 虚拟数据集和存储池。
root@disk:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT dpool 68G 83.5K 68.0G 0% 1.00x ONLINE - rpool 33.8G 472M 33.3G 1% 1.00x ONLINE - root@disk:~# zpool status -v pool: dpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM dpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c4t2d0 ONLINE 0 0 0 c4t4d0 ONLINE 0 0 0 pool: rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c4t1d0 ONLINE 0 0 0 c4t3d0 ONLINE 0 0 0 root@disk:~# zfs list -t all NAME USED AVAIL REFER MOUNTPOINT dpool 83.5K 66.9G 31K /dpool rpool 465M 32.8G 31K /rpool rpool/ROOT 465M 32.8G 31K legacy rpool/ROOT/solaris 465M 32.8G 416M / rpool/ROOT/solaris@install 5.60M - 389M - rpool/ROOT/solaris/var 43.9M 32.8G 43.3M /var rpool/ROOT/solaris/var@install 618K - 43.2M - rpool/VARSHARE 39K 32.8G 39K /var/share rpool/export 96.5K 32.8G 32K /export rpool/export/home 64.5K 32.8G 32K /export/home rpool/export/home/user 32.5K 32.8G 32.5K /export/home/user示例 14-8 使用基于光纤通道的存储设备的 Oracle Solaris 区域
此练习使用通过光纤通道提供的共享存储设备在 Oracle Solaris 上配置并安装区域。
首先,使用 fcinfo lu 命令搜索当前我们的主机可见的光纤通道逻辑单元。
root@host:~# fcinfo lu -v OS Device Name: /dev/rdsk/c0t600144F0DBF8AF190000510979640005d0s2 HBA Port WWN: 10000000c9991d8c Remote Port WWN: 21000024ff3ee89f LUN: 5 Vendor: SUN Product: ZFS Storage 7120 Device Type: Disk Device
使用 suriadm lookup-uri 构建基于设备路径的存储 URI。删除设备名称中用于查询的分片部分以便检索表示整个 LU 的存储 URI。
root@host:~# suriadm lookup-uri /dev/dsk/c0t600144F0DBF8AF190000510979640005d0 lu:luname.naa.600144f0dbf8af190000510979640005 lu:initiator.naa.10000000c9991d8c,target.naa.21000024ff3ee89f,luname.naa.600144f0dbf8af190000510979640005 dev:dsk/c0t600144F0DBF8AF190000510979640005d0
从显示的三个 URI 中,我们选择仅具有 luname 格式的逻辑单元存储 URI 以用于区域配置。
root@host:~# zonecfg -z fc Use 'create' to begin configuring a new zone. zonecfg:fc> create create: Using system default template 'SYSdefault' zonecfg:fc> set zonepath=/fc zonecfg:fc> add rootzpool zonecfg:fc:rootzpool> add storage lu:luname.naa.600144f0dbf8af190000510979640005 zonecfg:fc:rootzpool> end zonecfg:fc> commit zonecfg:fc> exit
现在即可安装该区域。
root@host:~# zoneadm -z fc install Created zone zpool: fc_rpool Progress being logged to /var/log/zones/zoneadm.20130214T045957Z.fc.install Image: Preparing at /fc/root. AI Manifest: /tmp/manifest.xml.K9aaow SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml Zonename: fc Installation: Starting ... Creating IPS image Startup linked: 1/1 done Installing packages from: solaris origin: http://pkg.oracle.com/solaris/release/ DOWNLOAD PKGS FILES XFER (MB) SPEED Completed 190/190 34246/34246 231.3/231.3 7.2M/s PHASE ITEMS Installing new actions 48231/48231 Updating package state database Done Updating image state Done Creating fast lookup database Done Installation: Succeeded Note: Man pages can be obtained by installing pkg:/system/manual done. Done: Installation completed in 104.318 seconds. Next Steps: Boot the zone, then log into the zone console (zlogin -C) to complete the configuration process. Log saved in non-global zone as /fc/root/var/log/zones/zoneadm.20130214T045957Z.fc.install root@host:~#
区域安装后,以下新的 ZFS 存储池将处于联机状态。
root@host:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT fc_rpool 39.8G 441M 39.3G 1% 1.00x ONLINE - root@host:~# zpool status -v fc_rpool pool: fc_rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM fc_rpool ONLINE 0 0 0 c0t600144F0DBF8AF190000510979640005d0 ONLINE 0 0 0
区域安装将完全包含在此 ZFS 存储池内部。该区域具有以下 ZFS 数据集布局。
root@host:~# zfs list -t all|grep fc fc_rpool 440M 38.7G 32K /fc fc_rpool/rpool 440M 38.7G 31K /rpool fc_rpool/rpool/ROOT 440M 38.7G 31K legacy fc_rpool/rpool/ROOT/solaris 440M 38.7G 405M /fc/root fc_rpool/rpool/ROOT/solaris@install 67K - 405M - fc_rpool/rpool/ROOT/solaris/var 34.3M 38.7G 33.6M /fc/root/var fc_rpool/rpool/ROOT/solaris/var@install 665K - 33.6M - fc_rpool/rpool/VARSHARE 31K 38.7G 31K /var/share fc_rpool/rpool/export 62K 38.7G 31K /export fc_rpool/rpool/export/home 31K 38.7G 31K /export/home
已成功安装从光纤通道目标中提供的共享存储托管的新区域。现在即可使用 zoneadm boot 引导此区域。
在引导该区域后,区域管理员可以从该区域的内部观察 ZFS 虚拟数据集和存储池。
root@fc:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT rpool 39.8G 451M 39.3G 1% 1.00x ONLINE - root@fc:~# zpool status -v pool: rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 c0t600144F0DBF8AF190000510979640005d0 ONLINE 0 0 0 root@fc:~# zfs list -t all NAME USED AVAIL REFER MOUNTPOINT rpool 467M 38.7G 31K /rpool rpool/ROOT 467M 38.7G 31K legacy rpool/ROOT/solaris 467M 38.7G 430M / rpool/ROOT/solaris@install 1.90M - 405M - rpool/ROOT/solaris/var 34.4M 38.7G 33.7M /var rpool/ROOT/solaris/var@install 703K - 33.6M - rpool/VARSHARE 39K 38.7G 39K /var/share rpool/export 96.5K 38.7G 32K /export rpool/export/home 64.5K 38.7G 32K /export/home rpool/export/home/user 32.5K 38.7G 32.5K /export/home/user