이 절에서는 공유 저장소 리소스에 Oracle Solaris 영역을 배포하는 예제를 제공합니다.
예 14-6 iSCSI 기반 공유 저장 장치를 사용하는 Oracle Solaris 영역이 연습에서는 iSCSI 대상을 통해 공유 저장소를 제공하는 Oracle Solaris 11 서버에서 샘플 구성을 설정합니다. 그런 다음 Oracle Solaris를 실행하는 두번째 서버에서 영역을 구성 및 설치하고 해당 iSCSI 기반 공유 저장소 리소스를 사용하여 영역을 호스트합니다.
먼저 다음 pkg install 명령의 하나를 사용하여 해당하는 패키지를 설치합니다. 첫번째 명령은 전체 다중 프로토콜 저장소 서버 그룹 패키지를 설치합니다. 두번째 명령은 itadm(1M) 및 stmfadm(1M) 매뉴얼 페이지의 설명과 같이 공통 다중 프로토콜 SCSI 대상(COMSTAR) 프레임워크 내에서 iSCSI에 대한 대상 지원만 설치합니다.
root@target:~# pkg install group/feature/storage-server root@target:~# pkg install system/storage/iscsi/iscsi-target
그런 다음 이 서버에서 iSCSI 대상을 내보낼 수 있도록 보조 저장소를 만듭니다. zfs 명령을 사용하여 대상 서버의 rpool/export 데이터 세트에 저장된 3개의 iSCSI 대상 논리 장치(각각 10GB 크기)에 대한 보조 저장소로 3개의 ZFS 볼륨을 만듭니다.
root@target:~# zfs create -V 10G rpool/export/zonevol1 root@target:~# zfs create -V 10G rpool/export/zonevol2 root@target:~# zfs create -V 10G rpool/export/zonevol3
보조 저장소를 설정한 후 stmfadm 명령을 사용하여 각 ZFS 볼륨에 대한 대상 논리 장치를 만듭니다. 그러면 각 볼륨에 해당하는 장치 ID(WWN)가 제공되고 나중에 클라이언트 호스트에서 iSCSI 대상을 검색하기 위해 저장소 URI에서 이 ID를 사용할 수 있습니다.
root@target:~# stmfadm create-lu /dev/zvol/rdsk/rpool/export/zonevol1 Logical unit created: 600144F035FF8500000050C884E50001 root@target:~# stmfadm create-lu /dev/zvol/rdsk/rpool/export/zonevol2 Logical unit created: 600144F035FF8500000050C884E80002 root@target:~# stmfadm create-lu /dev/zvol/rdsk/rpool/export/zonevol3 Logical unit created: 600144F035FF8500000050C884EC0003
stmfadm list-lu 구문을 사용하여 구성된 논리 장치를 볼 수 있습니다.
root@target:~# stmfadm list-lu LU Name: 600144F035FF8500000050C884E50001 LU Name: 600144F035FF8500000050C884E80002 LU Name: 600144F035FF8500000050C884EC0003
stmfadm list-lu -v 구문을 사용하여 구성된 논리 장치에 대한 세부 사항을 쿼리할 수 있습니다.
root@target:~# stmfadm list-lu -v LU Name: 600144F035FF8500000050C884E50001 Operational Status : Online Provider Name : sbd Alias : /dev/zvol/rdsk/rpool/export/zonevol1 View Entry Count : 0 Data File : /dev/zvol/rdsk/rpool/export/zonevol1 Meta File : not set Size : 10737418240 Block Size : 512 Management URL : not set Software ID : not set Vendor ID : SUN Product ID : COMSTAR Serial Num : not set Write Protect : Disabled Write Cache Mode Select: Enabled Writeback Cache : Enabled Access State : Active
iSCSI 개시자에서 논리 장치를 사용할 수 있게 하려면 stmfadm add-view 명령을 사용하여 대상 서버에 논리 장치 보기를 추가합니다.
root@target:~# stmfadm add-view 600144F035FF8500000050C884E50001 root@target:~# stmfadm add-view 600144F035FF8500000050C884E80002 root@target:~# stmfadm add-view 600144F035FF8500000050C884EC0003
이제 대상 서버에서 iSCSI 대상을 구성합니다. 먼저 svcadm enable을 사용하여 iSCSI 대상 SMF 서비스를 사용으로 설정합니다.
root@target:~# svcadm enable -r svc:/network/iscsi/target:default
그런 다음 itadm create-target을 사용하여 iSCSI 대상 자체를 만듭니다.
root@target:~# itadm create-target Target iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a successfully created
itadm list-target 또는 stmfadm list-target을 사용하여 구성된 iSCSI 대상에 대한 세부 사항을 쿼리할 수 있습니다.
root@target:~# itadm list-target -v TARGET NAME STATE SESSIONS iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a online 0 alias: - auth: none (defaults) targetchapuser: - targetchapsecret: unset tpg-tags: default root@target:~# stmfadm list-target -v Target: iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a Operational Status : Online Provider Name : iscsit Alias : - Protocol : iSCSI Sessions : 0
마지막 단계에서는 suriadm(1M)을 사용하여 두번째 서버의 영역 구성에서 사용할 해당하는 저장소 URI를 얻습니다. 각 논리 장치에 대한 논리 장치 경로 항목이 /dev에 만들어졌습니다. suriadm 명령을 사용하여 iSCSI 저장소 URI를 만듭니다.
root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884E50001d0 iscsi://target/luname.naa.600144f035ff8500000050c884e50001 root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884E80002d0 iscsi://target/luname.naa.600144f035ff8500000050c884e80002 root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884EC0003d0 iscsi://target/luname.naa.600144f035ff8500000050c884ec0003
이 명령은 iSCSI 대상 저장소를 제공하는 샘플 서버에서 필요한 모든 작업을 완료합니다.
계속해서 iSCSI를 통해 제공되는 이 공유 저장소를 사용하여 두번째 서버에서 영역을 구성 및 설치할 수 있습니다.
첫번째 단계에서는 iSCSI 개시자로 선택되는 클라이언트 서버에 해당하는 패키지를 설치합니다.
root@initiator:~# pkg install pkg:/system/storage/iscsi/iscsi-initiator
다음으로 zonecfg 명령을 사용하여 rootzpool 및 zpool 리소스가 있는 영역을 구성합니다. 공유 저장소 리소스로 구성한 3개의 iSCSI 대상 논리 장치를 사용하여 영역을 호스트합니다. 대상 서버에서 이전에 suriadm을 사용하여 얻은 iSCSI 저장소 URI를 사용합니다.
root@initiator:~# zonecfg -z iscsi Use 'create' to begin configuring a new zone. zonecfg:iscsi> create create: Using system default template 'SYSdefault' zonecfg:iscsi> set zonepath=/iscsi zonecfg:iscsi> add rootzpool zonecfg:iscsi:rootzpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884E50001 zonecfg:iscsi:rootzpool> end zonecfg:iscsi> add zpool zonecfg:iscsi:zpool> set name=data zonecfg:iscsi:zpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884E80002 zonecfg:iscsi:zpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884EC0003 zonecfg:iscsi:zpool> end zonecfg:iscsi> commit zonecfg:iscsi> exit
이제 zoneadm install을 사용하여 영역을 설치할 준비가 되었습니다.
root@initiator:~# zoneadm -z iscsi install Configured zone storage resource(s) from: iscsi://target/luname.naa.600144F035FF8500000050C884E50001 Created zone zpool: iscsi_rpool Configured zone storage resource(s) from: iscsi://target/luname.naa.600144F035FF8500000050C884E80002 iscsi://target/luname.naa.600144F035FF8500000050C884EC0003 Created zone zpool: iscsi_data Progress being logged to /var/log/zones/zoneadm.20130125T112209Z.iscsi.install Image: Preparing at /iscsi/root. AI Manifest: /tmp/manifest.xml.pmai7h SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml Zonename: iscsi Installation: Starting ... Creating IPS image Startup linked: 1/1 done Installing packages from: solaris origin: http://pkg.oracle.com/solaris/release/ DOWNLOAD PKGS FILES XFER (MB) SPEED Completed 183/183 33556/33556 222.2/222.2 3.4M/s PHASE ITEMS Installing new actions 46825/46825 Updating package state database Done Updating image state Done Creating fast lookup database Done Installation: Succeeded Note: Man pages can be obtained by installing pkg:/system/manual done. Done: Installation completed in 266.487 seconds. Next Steps: Boot the zone, then log into the zone console (zlogin -C) to complete the configuration process. Log saved in non-global zone as /iscsi/root/var/log/zones/zoneadm.20130125T112209Z.iscsi.install root@initiator:~#
영역 설치가 완료되면 zoneadm(1M) list를 사용하여 영역이 제대로 설치되었는지 확인합니다.
root@initiator:~# zoneadm list -cp 0:global:running:/::solaris:shared:-:none -:iscsi:installed:/iscsi:a0a4ba0d-9d6d-cf2c-cc42-f123a5e3ee11:solaris:excl:-:
마지막으로 zpool 명령을 사용하여 이 영역과 연결된 새로 만들어진 ZFS 저장소 풀을 관찰할 수 있습니다.
root@initiator:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT iscsi_data 9.94G 83.5K 9.94G 0% 1.00x ONLINE - iscsi_rpool 9.94G 436M 9.51G 4% 1.00x ONLINE - root@initiator:~# zpool status -v iscsi_rpool pool: iscsi_rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM iscsi_rpool ONLINE 0 0 0 c0t600144F035FF8500000050C884E50001d0 ONLINE 0 0 0 root@initiator:~# zpool status -v iscsi_data pool: iscsi_data state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM iscsi_data ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c0t600144F035FF8500000050C884E80002d0 ONLINE 0 0 0 c0t600144F035FF8500000050C884EC0003d0 ONLINE 0 0 0
영역 설치는 이 ZFS 저장소 풀 내에 완전히 포함됩니다. 이 영역에 대한 ZFS 데이터 세트 레이아웃은 다음과 같습니다.
root@initiator:~# zfs list -t all|grep iscsi iscsi_data 83.5K 9.78G 31K /iscsi_data iscsi_rpool 436M 9.36G 32K /iscsi iscsi_rpool/rpool 436M 9.36G 31K /rpool iscsi_rpool/rpool/ROOT 436M 9.36G 31K legacy iscsi_rpool/rpool/ROOT/solaris 436M 9.36G 390M /iscsi/root iscsi_rpool/rpool/ROOT/solaris@install 64K - 390M - iscsi_rpool/rpool/ROOT/solaris/var 46.1M 9.36G 45.4M /iscsi/root/var iscsi_rpool/rpool/ROOT/solaris/var@install 644K - 45.4M - iscsi_rpool/rpool/VARSHARE 31K 9.36G 31K /var/share iscsi_rpool/rpool/export 62K 9.36G 31K /export iscsi_rpool/rpool/export/home 31K 9.36G 31K /export/home
iSCSI 기반 공유 저장소 리소스에 호스트된 새 영역이 성공적으로 설치되었으므로 zoneadm(1M) boot를 사용하여 부트할 수 있습니다.
영역이 부트된 후 영역 관리자는 영역 내에서 가상 ZFS 데이터 세트 및 저장소 풀을 관찰합니다.
root@iscsi:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT data 9.94G 85K 9.94G 0% 1.00x ONLINE - rpool 9.94G 449M 9.50G 4% 1.00x ONLINE - root@iscsi:~# zpool status -v pool: data state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM data ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c0t600144F035FF8500000050C884E80002d0 ONLINE 0 0 0 c0t600144F035FF8500000050C884EC0003d0 ONLINE 0 0 0 pool: rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 c0t600144F035FF8500000050C884E50001d0 ONLINE 0 0 0 root@iscsi:~# zfs list -t all NAME USED AVAIL REFER MOUNTPOINT data 85K 9.78G 31K /data rpool 464M 9.33G 31K /rpool rpool/ROOT 464M 9.33G 31K legacy rpool/ROOT/solaris 464M 9.33G 416M / rpool/ROOT/solaris@install 1.83M - 390M - rpool/ROOT/solaris/var 46.2M 9.33G 45.6M /var rpool/ROOT/solaris/var@install 674K - 45.4M - rpool/VARSHARE 39K 9.33G 39K /var/share rpool/export 96.5K 9.33G 32K /export rpool/export/home 64.5K 9.33G 32K /export/home rpool/export/home/user 32.5K 9.33G 32.5K /export/home/user예 14-7 DAS 저장 장치를 사용하는 Oracle Solaris 영역 예제
이 연습에서는 직접 연결된 로컬 저장 장치를 사용하여 Oracle Solaris에서 영역을 구성 및 설치합니다. 일반적으로 이 방법은 여러 호스트에 걸쳐 이식할 수 없습니다.
먼저 format 명령을 사용하여 사용 가능한 로컬 디스크를 검색하고 suriadm lookup-uri를 사용하여 해당하는 저장소 URI를 영역 구성 내에서 사용하도록 구성합니다.
root@host:~# format Searching for disks...done AVAILABLE DISK SELECTIONS: 1. c4t1d0 <SEAGATE-ST336704LSUN36G-0326-33.92GB> /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@1,0 2. c4t2d0 <FUJITSU-MAT3073NC-0104-68.49GB> /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@2,0 3. c4t3d0 <SEAGATE-ST336704LSUN36G-0326-33.92GB> /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@3,0 4. c4t4d0 <FUJITSU-MAW3073NC-0103-68.49GB> /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@4,0 root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t1d0 dev:dsk/c4t1d0 root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t2d0 dev:dsk/c4t2d0 root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t3d0 dev:dsk/c4t3d0 root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t4d0 dev:dsk/c4t4d0
이 저장소 URI를 사용하여 둘 다 미러링된 ZFS 저장소 풀을 나타내는 rootzpool 및 zpool 리소스가 있는 영역을 구성합니다.
root@host:~# zonecfg -z disk Use 'create' to begin configuring a new zone. zonecfg:disk> create create: Using system default template 'SYSdefault' zonecfg:disk> set zonepath=/disk zonecfg:disk> add rootzpool zonecfg:disk:rootzpool> add storage dev:dsk/c4t1d0 zonecfg:disk:rootzpool> add storage dev:dsk/c4t3d0 zonecfg:disk:rootzpool> end zonecfg:disk> add zpool zonecfg:disk:zpool> set name=dpool zonecfg:disk:zpool> add storage dev:dsk/c4t2d0 zonecfg:disk:zpool> add storage dev:dsk/c4t4d0 zonecfg:disk:zpool> end zonecfg:disk> commit zonecfg:disk> exit
영역을 설치합니다.
root@host:~# zoneadm -z disk install Created zone zpool: disk_rpool Created zone zpool: disk_dpool Progress being logged to /var/log/zones/zoneadm.20130213T132236Z.disk.install Image: Preparing at /disk/root. AI Manifest: /tmp/manifest.xml.rOaOhe SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml Zonename: disk Installation: Starting ... Creating IPS image Startup linked: 1/1 done Installing packages from: solaris origin: http://pkg.oracle.com/solaris/release/ DOWNLOAD PKGS FILES XFER (MB) SPEED Completed 183/183 33556/33556 222.2/222.2 2.0M/s PHASE ITEMS Installing new actions 46825/46825 Updating package state database Done Updating image state Done Creating fast lookup database Done Installation: Succeeded Note: Man pages can be obtained by installing pkg:/system/manual done. Done: Installation completed in 308.358 seconds. Next Steps: Boot the zone, then log into the zone console (zlogin -C) to complete the configuration process. Log saved in non-global zone as /disk/root/var/log/zones/zoneadm.20130213T132236Z.disk.install root@host:~#
영역을 설치하고 나면 다음 두 개의 새 ZFS 저장소 풀이 온라인 상태로 전환됩니다.
root@host:/# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT disk_dpool 68G 83.5K 68.0G 0% 1.00x ONLINE - disk_rpool 33.8G 434M 33.3G 1% 1.00x ONLINE - root@host:/# zpool status -v disk_rpool pool: disk_rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM disk_rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c4t1d0 ONLINE 0 0 0 c4t3d0 ONLINE 0 0 0 root@host:/# zpool status -v disk_dpool pool: disk_dpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM disk_dpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c4t2d0 ONLINE 0 0 0 c4t4d0 ONLINE 0 0 0
영역 설치는 이 ZFS 저장소 풀 내에 완전히 포함됩니다. 이 영역에 대한 ZFS 데이터 세트 레이아웃은 다음과 같습니다.
root@host:~# zfs list -t all|grep disk disk_dpool 83.5K 66.9G 31K /disk_dpool disk_rpool 434M 32.8G 32K /disk disk_rpool/rpool 433M 32.8G 31K /rpool disk_rpool/rpool/ROOT 433M 32.8G 31K legacy disk_rpool/rpool/ROOT/solaris 433M 32.8G 389M /disk/root disk_rpool/rpool/ROOT/solaris@install 63K - 389M - disk_rpool/rpool/ROOT/solaris/var 43.8M 32.8G 43.2M /disk/root/var disk_rpool/rpool/ROOT/solaris/var@install 584K - 43.2M - disk_rpool/rpool/VARSHARE 31K 32.8G 31K /var/share disk_rpool/rpool/export 62K 32.8G 31K /export disk_rpool/rpool/export/home 31K 32.8G 31K /export/home
로컬 장치 저장소 리소스에 호스트된 새 영역이 성공적으로 설치되었으므로 zoneadm boot 명령을 사용하여 부트할 수 있습니다.
영역이 부트된 후 영역 관리자는 영역 내에서 가상 ZFS 데이터 세트 및 저장소 풀을 관찰할 수 있습니다.
root@disk:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT dpool 68G 83.5K 68.0G 0% 1.00x ONLINE - rpool 33.8G 472M 33.3G 1% 1.00x ONLINE - root@disk:~# zpool status -v pool: dpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM dpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c4t2d0 ONLINE 0 0 0 c4t4d0 ONLINE 0 0 0 pool: rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c4t1d0 ONLINE 0 0 0 c4t3d0 ONLINE 0 0 0 root@disk:~# zfs list -t all NAME USED AVAIL REFER MOUNTPOINT dpool 83.5K 66.9G 31K /dpool rpool 465M 32.8G 31K /rpool rpool/ROOT 465M 32.8G 31K legacy rpool/ROOT/solaris 465M 32.8G 416M / rpool/ROOT/solaris@install 5.60M - 389M - rpool/ROOT/solaris/var 43.9M 32.8G 43.3M /var rpool/ROOT/solaris/var@install 618K - 43.2M - rpool/VARSHARE 39K 32.8G 39K /var/share rpool/export 96.5K 32.8G 32K /export rpool/export/home 64.5K 32.8G 32K /export/home rpool/export/home/user 32.5K 32.8G 32.5K /export/home/user예 14-8 광 섬유 채널 기반 저장 장치를 사용하는 Oracle Solaris 영역
이 연습에서는 광 섬유 채널을 통해 제공되는 공유 저장 장치를 사용하여 Oracle Solaris에서 영역을 구성 및 설치합니다.
먼저 fcinfo lu 명령을 사용하여 현재 호스트에 표시되는 광 섬유 채널 논리 장치를 검색합니다.
root@host:~# fcinfo lu -v OS Device Name: /dev/rdsk/c0t600144F0DBF8AF190000510979640005d0s2 HBA Port WWN: 10000000c9991d8c Remote Port WWN: 21000024ff3ee89f LUN: 5 Vendor: SUN Product: ZFS Storage 7120 Device Type: Disk Device
suriadm lookup-uri를 사용하여 장치 경로를 기반으로 저장소 URI를 구성합니다. 쿼리에서 전체 LU를 나타내는 저장소 URI를 검색하도록 장치 이름의 슬라이스 부분을 제거합니다.
root@host:~# suriadm lookup-uri /dev/dsk/c0t600144F0DBF8AF190000510979640005d0 lu:luname.naa.600144f0dbf8af190000510979640005 lu:initiator.naa.10000000c9991d8c,target.naa.21000024ff3ee89f,luname.naa.600144f0dbf8af190000510979640005 dev:dsk/c0t600144F0DBF8AF190000510979640005d0
표시된 3개의 URI 중에서 영역 구성에서 사용할 논리 장치 저장소 URI의 luname 전용 형식을 선택합니다.
root@host:~# zonecfg -z fc Use 'create' to begin configuring a new zone. zonecfg:fc> create create: Using system default template 'SYSdefault' zonecfg:fc> set zonepath=/fc zonecfg:fc> add rootzpool zonecfg:fc:rootzpool> add storage lu:luname.naa.600144f0dbf8af190000510979640005 zonecfg:fc:rootzpool> end zonecfg:fc> commit zonecfg:fc> exit
이제 영역을 설치할 준비가 되었습니다.
root@host:~# zoneadm -z fc install Created zone zpool: fc_rpool Progress being logged to /var/log/zones/zoneadm.20130214T045957Z.fc.install Image: Preparing at /fc/root. AI Manifest: /tmp/manifest.xml.K9aaow SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml Zonename: fc Installation: Starting ... Creating IPS image Startup linked: 1/1 done Installing packages from: solaris origin: http://pkg.oracle.com/solaris/release/ DOWNLOAD PKGS FILES XFER (MB) SPEED Completed 190/190 34246/34246 231.3/231.3 7.2M/s PHASE ITEMS Installing new actions 48231/48231 Updating package state database Done Updating image state Done Creating fast lookup database Done Installation: Succeeded Note: Man pages can be obtained by installing pkg:/system/manual done. Done: Installation completed in 104.318 seconds. Next Steps: Boot the zone, then log into the zone console (zlogin -C) to complete the configuration process. Log saved in non-global zone as /fc/root/var/log/zones/zoneadm.20130214T045957Z.fc.install root@host:~#
영역을 설치하고 나면 다음 새 ZFS 저장소 풀이 온라인 상태로 전환됩니다.
root@host:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT fc_rpool 39.8G 441M 39.3G 1% 1.00x ONLINE - root@host:~# zpool status -v fc_rpool pool: fc_rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM fc_rpool ONLINE 0 0 0 c0t600144F0DBF8AF190000510979640005d0 ONLINE 0 0 0
영역 설치는 이 ZFS 저장소 풀 내에 완전히 포함됩니다. 영역의 ZFS 데이터 세트 레이아웃은 다음과 같습니다.
root@host:~# zfs list -t all|grep fc fc_rpool 440M 38.7G 32K /fc fc_rpool/rpool 440M 38.7G 31K /rpool fc_rpool/rpool/ROOT 440M 38.7G 31K legacy fc_rpool/rpool/ROOT/solaris 440M 38.7G 405M /fc/root fc_rpool/rpool/ROOT/solaris@install 67K - 405M - fc_rpool/rpool/ROOT/solaris/var 34.3M 38.7G 33.6M /fc/root/var fc_rpool/rpool/ROOT/solaris/var@install 665K - 33.6M - fc_rpool/rpool/VARSHARE 31K 38.7G 31K /var/share fc_rpool/rpool/export 62K 38.7G 31K /export fc_rpool/rpool/export/home 31K 38.7G 31K /export/home
광 섬유 채널 대상에서 제공된 공유 저장소에 호스트된 새 영역이 성공적으로 설치되었습니다. 이제 zoneadm boot를 사용하여 이 영역을 부트할 수 있습니다.
영역이 부트된 후 영역 관리자는 영역 내에서 가상 ZFS 데이터 세트 및 저장소 풀을 관찰할 수 있습니다.
root@fc:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT rpool 39.8G 451M 39.3G 1% 1.00x ONLINE - root@fc:~# zpool status -v pool: rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 c0t600144F0DBF8AF190000510979640005d0 ONLINE 0 0 0 root@fc:~# zfs list -t all NAME USED AVAIL REFER MOUNTPOINT rpool 467M 38.7G 31K /rpool rpool/ROOT 467M 38.7G 31K legacy rpool/ROOT/solaris 467M 38.7G 430M / rpool/ROOT/solaris@install 1.90M - 405M - rpool/ROOT/solaris/var 34.4M 38.7G 33.7M /var rpool/ROOT/solaris/var@install 703K - 33.6M - rpool/VARSHARE 39K 38.7G 39K /var/share rpool/export 96.5K 38.7G 32K /export rpool/export/home 64.5K 38.7G 32K /export/home rpool/export/home/user 32.5K 38.7G 32.5K /export/home/user