Oracle® Solaris 영역 만들기 및 사용

인쇄 보기 종료

업데이트 날짜: 2015년 5월
 
 

샘플 시나리오

이 절에서는 공유 저장소 리소스에 Oracle Solaris 영역을 배포하는 예제를 제공합니다.

예 14-6  iSCSI 기반 공유 저장 장치를 사용하는 Oracle Solaris 영역

이 연습에서는 iSCSI 대상을 통해 공유 저장소를 제공하는 Oracle Solaris 11 서버에서 샘플 구성을 설정합니다. 그런 다음 Oracle Solaris를 실행하는 두번째 서버에서 영역을 구성 및 설치하고 해당 iSCSI 기반 공유 저장소 리소스를 사용하여 영역을 호스트합니다.

먼저 다음 pkg install 명령의 하나를 사용하여 해당하는 패키지를 설치합니다. 첫번째 명령은 전체 다중 프로토콜 저장소 서버 그룹 패키지를 설치합니다. 두번째 명령은 itadm(1M)stmfadm(1M) 매뉴얼 페이지의 설명과 같이 공통 다중 프로토콜 SCSI 대상(COMSTAR) 프레임워크 내에서 iSCSI에 대한 대상 지원만 설치합니다.

root@target:~# pkg install group/feature/storage-server
root@target:~# pkg install system/storage/iscsi/iscsi-target

그런 다음 이 서버에서 iSCSI 대상을 내보낼 수 있도록 보조 저장소를 만듭니다. zfs 명령을 사용하여 대상 서버의 rpool/export 데이터 세트에 저장된 3개의 iSCSI 대상 논리 장치(각각 10GB 크기)에 대한 보조 저장소로 3개의 ZFS 볼륨을 만듭니다.

root@target:~# zfs create -V 10G rpool/export/zonevol1
root@target:~# zfs create -V 10G rpool/export/zonevol2
root@target:~# zfs create -V 10G rpool/export/zonevol3

보조 저장소를 설정한 후 stmfadm 명령을 사용하여 각 ZFS 볼륨에 대한 대상 논리 장치를 만듭니다. 그러면 각 볼륨에 해당하는 장치 ID(WWN)가 제공되고 나중에 클라이언트 호스트에서 iSCSI 대상을 검색하기 위해 저장소 URI에서 이 ID를 사용할 수 있습니다.

root@target:~# stmfadm create-lu  /dev/zvol/rdsk/rpool/export/zonevol1
Logical unit created: 600144F035FF8500000050C884E50001
root@target:~# stmfadm create-lu  /dev/zvol/rdsk/rpool/export/zonevol2
Logical unit created: 600144F035FF8500000050C884E80002
root@target:~# stmfadm create-lu  /dev/zvol/rdsk/rpool/export/zonevol3
Logical unit created: 600144F035FF8500000050C884EC0003

stmfadm list-lu 구문을 사용하여 구성된 논리 장치를 볼 수 있습니다.

root@target:~# stmfadm list-lu
LU Name: 600144F035FF8500000050C884E50001
LU Name: 600144F035FF8500000050C884E80002
LU Name: 600144F035FF8500000050C884EC0003

stmfadm list-lu -v 구문을 사용하여 구성된 논리 장치에 대한 세부 사항을 쿼리할 수 있습니다.

root@target:~# stmfadm list-lu -v
LU Name: 600144F035FF8500000050C884E50001
    Operational Status     : Online
    Provider Name          : sbd
    Alias                  : /dev/zvol/rdsk/rpool/export/zonevol1
    View Entry Count       : 0
    Data File              : /dev/zvol/rdsk/rpool/export/zonevol1
    Meta File              : not set
    Size                   : 10737418240
    Block Size             : 512
    Management URL         : not set
    Software ID            : not set
    Vendor ID              : SUN     
    Product ID             : COMSTAR         
    Serial Num             : not set
    Write Protect          : Disabled
    Write Cache Mode Select: Enabled
    Writeback Cache        : Enabled
    Access State           : Active

iSCSI 개시자에서 논리 장치를 사용할 수 있게 하려면 stmfadm add-view 명령을 사용하여 대상 서버에 논리 장치 보기를 추가합니다.

root@target:~# stmfadm add-view 600144F035FF8500000050C884E50001
root@target:~# stmfadm add-view 600144F035FF8500000050C884E80002
root@target:~# stmfadm add-view 600144F035FF8500000050C884EC0003

이제 대상 서버에서 iSCSI 대상을 구성합니다. 먼저 svcadm enable을 사용하여 iSCSI 대상 SMF 서비스를 사용으로 설정합니다.

root@target:~# svcadm enable -r svc:/network/iscsi/target:default

그런 다음 itadm create-target을 사용하여 iSCSI 대상 자체를 만듭니다.

root@target:~# itadm create-target
Target iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a successfully created

itadm list-target 또는 stmfadm list-target을 사용하여 구성된 iSCSI 대상에 대한 세부 사항을 쿼리할 수 있습니다.

root@target:~# itadm list-target -v
TARGET NAME                                                  STATE    SESSIONS 
iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a  online   0        
        alias:                  -
        auth:                   none (defaults)
        targetchapuser:         -
        targetchapsecret:       unset
        tpg-tags:               default

root@target:~# stmfadm list-target -v
Target: iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a
    Operational Status     : Online
    Provider Name          : iscsit
    Alias                  : -
    Protocol               : iSCSI
    Sessions               : 0

마지막 단계에서는 suriadm(1M)을 사용하여 두번째 서버의 영역 구성에서 사용할 해당하는 저장소 URI를 얻습니다. 각 논리 장치에 대한 논리 장치 경로 항목이 /dev에 만들어졌습니다. suriadm 명령을 사용하여 iSCSI 저장소 URI를 만듭니다.

root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884E50001d0
iscsi://target/luname.naa.600144f035ff8500000050c884e50001

root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884E80002d0
iscsi://target/luname.naa.600144f035ff8500000050c884e80002

root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884EC0003d0
iscsi://target/luname.naa.600144f035ff8500000050c884ec0003

이 명령은 iSCSI 대상 저장소를 제공하는 샘플 서버에서 필요한 모든 작업을 완료합니다.

계속해서 iSCSI를 통해 제공되는 이 공유 저장소를 사용하여 두번째 서버에서 영역을 구성 및 설치할 수 있습니다.

첫번째 단계에서는 iSCSI 개시자로 선택되는 클라이언트 서버에 해당하는 패키지를 설치합니다.

root@initiator:~# pkg install pkg:/system/storage/iscsi/iscsi-initiator

다음으로 zonecfg 명령을 사용하여 rootzpoolzpool 리소스가 있는 영역을 구성합니다. 공유 저장소 리소스로 구성한 3개의 iSCSI 대상 논리 장치를 사용하여 영역을 호스트합니다. 대상 서버에서 이전에 suriadm을 사용하여 얻은 iSCSI 저장소 URI를 사용합니다.

root@initiator:~# zonecfg -z iscsi 
Use 'create' to begin configuring a new zone.
zonecfg:iscsi> create
create: Using system default template 'SYSdefault'
zonecfg:iscsi> set zonepath=/iscsi
zonecfg:iscsi> add rootzpool
zonecfg:iscsi:rootzpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884E50001
zonecfg:iscsi:rootzpool> end
zonecfg:iscsi> add zpool
zonecfg:iscsi:zpool> set name=data
zonecfg:iscsi:zpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884E80002
zonecfg:iscsi:zpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884EC0003
zonecfg:iscsi:zpool> end
zonecfg:iscsi> commit
zonecfg:iscsi> exit

이제 zoneadm install을 사용하여 영역을 설치할 준비가 되었습니다.

root@initiator:~# zoneadm -z iscsi install
Configured zone storage resource(s) from:
	iscsi://target/luname.naa.600144F035FF8500000050C884E50001
Created zone zpool: iscsi_rpool
Configured zone storage resource(s) from:
	iscsi://target/luname.naa.600144F035FF8500000050C884E80002
	iscsi://target/luname.naa.600144F035FF8500000050C884EC0003
Created zone zpool: iscsi_data
Progress being logged to /var/log/zones/zoneadm.20130125T112209Z.iscsi.install
       Image: Preparing at /iscsi/root.

 AI Manifest: /tmp/manifest.xml.pmai7h
  SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml
    Zonename: iscsi
Installation: Starting ...

              Creating IPS image
Startup linked: 1/1 done
              Installing packages from:
                  solaris
                      origin:  http://pkg.oracle.com/solaris/release/
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                            183/183   33556/33556  222.2/222.2  3.4M/s

PHASE                                          ITEMS
Installing new actions                   46825/46825
Updating package state database                 Done 
Updating image state                            Done 
Creating fast lookup database                   Done 
Installation: Succeeded

        Note: Man pages can be obtained by installing pkg:/system/manual

 done.

        Done: Installation completed in 266.487 seconds.

  Next Steps: Boot the zone, then log into the zone console (zlogin -C)

              to complete the configuration process.

Log saved in non-global zone as /iscsi/root/var/log/zones/zoneadm.20130125T112209Z.iscsi.install
root@initiator:~# 

영역 설치가 완료되면 zoneadm(1M) list를 사용하여 영역이 제대로 설치되었는지 확인합니다.

root@initiator:~# zoneadm list -cp
0:global:running:/::solaris:shared:-:none
-:iscsi:installed:/iscsi:a0a4ba0d-9d6d-cf2c-cc42-f123a5e3ee11:solaris:excl:-:

마지막으로 zpool 명령을 사용하여 이 영역과 연결된 새로 만들어진 ZFS 저장소 풀을 관찰할 수 있습니다.

root@initiator:~# zpool list
NAME          SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
iscsi_data   9.94G  83.5K  9.94G   0%  1.00x  ONLINE  -
iscsi_rpool  9.94G   436M  9.51G   4%  1.00x  ONLINE  -

root@initiator:~# zpool status -v iscsi_rpool
  pool: iscsi_rpool
 state: ONLINE
  scan: none requested
config:

	NAME                                     STATE     READ WRITE CKSUM
	iscsi_rpool                              ONLINE       0     0     0
	  c0t600144F035FF8500000050C884E50001d0  ONLINE       0     0     0

root@initiator:~# zpool status -v iscsi_data
  pool: iscsi_data
 state: ONLINE
  scan: none requested
config:

	NAME                                       STATE     READ WRITE CKSUM
	iscsi_data                                 ONLINE       0     0     0
	  mirror-0                                 ONLINE       0     0     0
	    c0t600144F035FF8500000050C884E80002d0  ONLINE       0     0     0
	    c0t600144F035FF8500000050C884EC0003d0  ONLINE       0     0     0

영역 설치는 이 ZFS 저장소 풀 내에 완전히 포함됩니다. 이 영역에 대한 ZFS 데이터 세트 레이아웃은 다음과 같습니다.

root@initiator:~# zfs list -t all|grep iscsi
iscsi_data                                          83.5K  9.78G    31K  /iscsi_data
iscsi_rpool                                          436M  9.36G    32K  /iscsi
iscsi_rpool/rpool                                    436M  9.36G    31K  /rpool
iscsi_rpool/rpool/ROOT                               436M  9.36G    31K  legacy
iscsi_rpool/rpool/ROOT/solaris                       436M  9.36G   390M  /iscsi/root
iscsi_rpool/rpool/ROOT/solaris@install                64K      -   390M  -
iscsi_rpool/rpool/ROOT/solaris/var                  46.1M  9.36G  45.4M  /iscsi/root/var
iscsi_rpool/rpool/ROOT/solaris/var@install           644K      -  45.4M  -
iscsi_rpool/rpool/VARSHARE                            31K  9.36G    31K  /var/share
iscsi_rpool/rpool/export                              62K  9.36G    31K  /export
iscsi_rpool/rpool/export/home                         31K  9.36G    31K  /export/home

iSCSI 기반 공유 저장소 리소스에 호스트된 새 영역이 성공적으로 설치되었으므로 zoneadm(1M) boot를 사용하여 부트할 수 있습니다.

영역이 부트된 후 영역 관리자는 영역 내에서 가상 ZFS 데이터 세트 및 저장소 풀을 관찰합니다.

root@iscsi:~# zpool list
NAME    SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
data   9.94G    85K  9.94G   0%  1.00x  ONLINE  -
rpool  9.94G   449M  9.50G   4%  1.00x  ONLINE  -

root@iscsi:~# zpool status -v
  pool: data
 state: ONLINE
  scan: none requested
config:

        NAME                                       STATE     READ WRITE CKSUM
        data                                       ONLINE       0     0     0
          mirror-0                                 ONLINE       0     0     0
            c0t600144F035FF8500000050C884E80002d0  ONLINE       0     0     0
            c0t600144F035FF8500000050C884EC0003d0  ONLINE       0     0     0

  pool: rpool
 state: ONLINE
  scan: none requested
config:

        NAME                                     STATE     READ WRITE CKSUM
        rpool                                    ONLINE       0     0     0
          c0t600144F035FF8500000050C884E50001d0  ONLINE       0     0     0

root@iscsi:~# zfs list -t all
NAME                             USED  AVAIL  REFER  MOUNTPOINT
data                              85K  9.78G    31K  /data
rpool                            464M  9.33G    31K  /rpool
rpool/ROOT                       464M  9.33G    31K  legacy
rpool/ROOT/solaris               464M  9.33G   416M  /
rpool/ROOT/solaris@install      1.83M      -   390M  -
rpool/ROOT/solaris/var          46.2M  9.33G  45.6M  /var
rpool/ROOT/solaris/var@install   674K      -  45.4M  -
rpool/VARSHARE                    39K  9.33G    39K  /var/share
rpool/export                    96.5K  9.33G    32K  /export
rpool/export/home               64.5K  9.33G    32K  /export/home
rpool/export/home/user          32.5K  9.33G  32.5K  /export/home/user
예 14-7  DAS 저장 장치를 사용하는 Oracle Solaris 영역 예제

이 연습에서는 직접 연결된 로컬 저장 장치를 사용하여 Oracle Solaris에서 영역을 구성 및 설치합니다. 일반적으로 이 방법은 여러 호스트에 걸쳐 이식할 수 없습니다.

먼저 format 명령을 사용하여 사용 가능한 로컬 디스크를 검색하고 suriadm lookup-uri를 사용하여 해당하는 저장소 URI를 영역 구성 내에서 사용하도록 구성합니다.

root@host:~# format
Searching for disks...done
AVAILABLE DISK SELECTIONS:
       1. c4t1d0 <SEAGATE-ST336704LSUN36G-0326-33.92GB>
          /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@1,0
       2. c4t2d0 <FUJITSU-MAT3073NC-0104-68.49GB>
          /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@2,0
       3. c4t3d0 <SEAGATE-ST336704LSUN36G-0326-33.92GB>
          /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@3,0
       4. c4t4d0 <FUJITSU-MAW3073NC-0103-68.49GB>
          /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@4,0

root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t1d0
dev:dsk/c4t1d0
root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t2d0
dev:dsk/c4t2d0
root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t3d0
dev:dsk/c4t3d0
root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t4d0
dev:dsk/c4t4d0

이 저장소 URI를 사용하여 둘 다 미러링된 ZFS 저장소 풀을 나타내는 rootzpoolzpool 리소스가 있는 영역을 구성합니다.

root@host:~# zonecfg -z disk 
Use 'create' to begin configuring a new zone.
zonecfg:disk> create
create: Using system default template 'SYSdefault'
zonecfg:disk> set zonepath=/disk
zonecfg:disk> add rootzpool
zonecfg:disk:rootzpool> add storage dev:dsk/c4t1d0
zonecfg:disk:rootzpool> add storage dev:dsk/c4t3d0
zonecfg:disk:rootzpool> end
zonecfg:disk> add zpool
zonecfg:disk:zpool> set name=dpool
zonecfg:disk:zpool> add storage dev:dsk/c4t2d0
zonecfg:disk:zpool> add storage dev:dsk/c4t4d0
zonecfg:disk:zpool> end
zonecfg:disk> commit
zonecfg:disk> exit

영역을 설치합니다.

root@host:~# zoneadm -z disk install
Created zone zpool: disk_rpool
Created zone zpool: disk_dpool
Progress being logged to /var/log/zones/zoneadm.20130213T132236Z.disk.install
       Image: Preparing at /disk/root.

 AI Manifest: /tmp/manifest.xml.rOaOhe
  SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml
    Zonename: disk
Installation: Starting ...

              Creating IPS image
Startup linked: 1/1 done
              Installing packages from:
                  solaris
                      origin:  http://pkg.oracle.com/solaris/release/
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                            183/183   33556/33556  222.2/222.2  2.0M/s

PHASE                                          ITEMS
Installing new actions                   46825/46825
Updating package state database                 Done 
Updating image state                            Done 
Creating fast lookup database                   Done 
Installation: Succeeded

        Note: Man pages can be obtained by installing pkg:/system/manual

 done.

        Done: Installation completed in 308.358 seconds.

  Next Steps: Boot the zone, then log into the zone console (zlogin -C)

              to complete the configuration process.

Log saved in non-global zone as /disk/root/var/log/zones/zoneadm.20130213T132236Z.disk.install
root@host:~# 

영역을 설치하고 나면 다음 두 개의 새 ZFS 저장소 풀이 온라인 상태로 전환됩니다.

root@host:/# zpool list
NAME         SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
disk_dpool    68G  83.5K  68.0G   0%  1.00x  ONLINE  -
disk_rpool  33.8G   434M  33.3G   1%  1.00x  ONLINE  -

root@host:/# zpool status -v disk_rpool
  pool: disk_rpool
 state: ONLINE
  scan: none requested
config:

	NAME        STATE     READ WRITE CKSUM
	disk_rpool  ONLINE       0     0     0
	  mirror-0  ONLINE       0     0     0
	    c4t1d0  ONLINE       0     0     0
	    c4t3d0  ONLINE       0     0     0

root@host:/# zpool status -v disk_dpool
  pool: disk_dpool
 state: ONLINE
  scan: none requested
config:

	NAME        STATE     READ WRITE CKSUM
	disk_dpool  ONLINE       0     0     0
	  mirror-0  ONLINE       0     0     0
	    c4t2d0  ONLINE       0     0     0
	    c4t4d0  ONLINE       0     0     0

영역 설치는 이 ZFS 저장소 풀 내에 완전히 포함됩니다. 이 영역에 대한 ZFS 데이터 세트 레이아웃은 다음과 같습니다.

root@host:~# zfs list -t all|grep disk
disk_dpool                                           83.5K  66.9G    31K  /disk_dpool
disk_rpool                                            434M  32.8G    32K  /disk
disk_rpool/rpool                                      433M  32.8G    31K  /rpool
disk_rpool/rpool/ROOT                                 433M  32.8G    31K  legacy
disk_rpool/rpool/ROOT/solaris                         433M  32.8G   389M  /disk/root
disk_rpool/rpool/ROOT/solaris@install                  63K      -   389M  -
disk_rpool/rpool/ROOT/solaris/var                    43.8M  32.8G  43.2M  /disk/root/var
disk_rpool/rpool/ROOT/solaris/var@install             584K      -  43.2M  -
disk_rpool/rpool/VARSHARE                              31K  32.8G    31K  /var/share
disk_rpool/rpool/export                                62K  32.8G    31K  /export
disk_rpool/rpool/export/home                           31K  32.8G    31K  /export/home

로컬 장치 저장소 리소스에 호스트된 새 영역이 성공적으로 설치되었으므로 zoneadm boot 명령을 사용하여 부트할 수 있습니다.

영역이 부트된 후 영역 관리자는 영역 내에서 가상 ZFS 데이터 세트 및 저장소 풀을 관찰할 수 있습니다.

root@disk:~# zpool list
NAME    SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
dpool    68G  83.5K  68.0G   0%  1.00x  ONLINE  -
rpool  33.8G   472M  33.3G   1%  1.00x  ONLINE  -

root@disk:~# zpool status -v
  pool: dpool
 state: ONLINE
  scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        dpool       ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            c4t2d0  ONLINE       0     0     0
            c4t4d0  ONLINE       0     0     0

  pool: rpool
 state: ONLINE
  scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        rpool       ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            c4t1d0  ONLINE       0     0     0
            c4t3d0  ONLINE       0     0     0

root@disk:~# zfs list -t all
NAME                             USED  AVAIL  REFER  MOUNTPOINT
dpool                           83.5K  66.9G    31K  /dpool
rpool                            465M  32.8G    31K  /rpool
rpool/ROOT                       465M  32.8G    31K  legacy
rpool/ROOT/solaris               465M  32.8G   416M  /
rpool/ROOT/solaris@install      5.60M      -   389M  -
rpool/ROOT/solaris/var          43.9M  32.8G  43.3M  /var
rpool/ROOT/solaris/var@install   618K      -  43.2M  -
rpool/VARSHARE                    39K  32.8G    39K  /var/share
rpool/export                    96.5K  32.8G    32K  /export
rpool/export/home               64.5K  32.8G    32K  /export/home
rpool/export/home/user          32.5K  32.8G  32.5K  /export/home/user
예 14-8  광 섬유 채널 기반 저장 장치를 사용하는 Oracle Solaris 영역

이 연습에서는 광 섬유 채널을 통해 제공되는 공유 저장 장치를 사용하여 Oracle Solaris에서 영역을 구성 및 설치합니다.

먼저 fcinfo lu 명령을 사용하여 현재 호스트에 표시되는 광 섬유 채널 논리 장치를 검색합니다.

root@host:~# fcinfo lu -v
OS Device Name: /dev/rdsk/c0t600144F0DBF8AF190000510979640005d0s2
        HBA Port WWN: 10000000c9991d8c
                Remote Port WWN: 21000024ff3ee89f
                        LUN: 5
        Vendor: SUN     
        Product: ZFS Storage 7120
        Device Type: Disk Device

suriadm lookup-uri를 사용하여 장치 경로를 기반으로 저장소 URI를 구성합니다. 쿼리에서 전체 LU를 나타내는 저장소 URI를 검색하도록 장치 이름의 슬라이스 부분을 제거합니다.

root@host:~# suriadm lookup-uri /dev/dsk/c0t600144F0DBF8AF190000510979640005d0
lu:luname.naa.600144f0dbf8af190000510979640005
lu:initiator.naa.10000000c9991d8c,target.naa.21000024ff3ee89f,luname.naa.600144f0dbf8af190000510979640005
dev:dsk/c0t600144F0DBF8AF190000510979640005d0

표시된 3개의 URI 중에서 영역 구성에서 사용할 논리 장치 저장소 URI의 luname 전용 형식을 선택합니다.

root@host:~# zonecfg -z fc
Use 'create' to begin configuring a new zone.
zonecfg:fc> create
create: Using system default template 'SYSdefault'
zonecfg:fc> set zonepath=/fc
zonecfg:fc> add rootzpool
zonecfg:fc:rootzpool> add storage lu:luname.naa.600144f0dbf8af190000510979640005
zonecfg:fc:rootzpool> end
zonecfg:fc> commit
zonecfg:fc> exit

이제 영역을 설치할 준비가 되었습니다.

root@host:~# zoneadm -z fc install
Created zone zpool: fc_rpool
Progress being logged to /var/log/zones/zoneadm.20130214T045957Z.fc.install
       Image: Preparing at /fc/root.

AI Manifest: /tmp/manifest.xml.K9aaow
SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml
  Zonename: fc
Installation: Starting ...

            Creating IPS image
Startup linked: 1/1 done
            Installing packages from:
                solaris
                    origin:   http://pkg.oracle.com/solaris/release/
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                            190/190   34246/34246  231.3/231.3  7.2M/s

PHASE                                          ITEMS
Installing new actions                   48231/48231
Updating package state database                 Done 
Updating image state                            Done 
Creating fast lookup database                   Done 
Installation: Succeeded

        Note: Man pages can be obtained by installing pkg:/system/manual

 done.

        Done: Installation completed in 104.318 seconds.

  Next Steps: Boot the zone, then log into the zone console (zlogin -C)

              to complete the configuration process.

Log saved in non-global zone as /fc/root/var/log/zones/zoneadm.20130214T045957Z.fc.install
root@host:~# 

영역을 설치하고 나면 다음 새 ZFS 저장소 풀이 온라인 상태로 전환됩니다.

root@host:~# zpool list
NAME       SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
fc_rpool  39.8G   441M  39.3G   1%  1.00x  ONLINE  -

root@host:~# zpool status -v fc_rpool
  pool: fc_rpool
 state: ONLINE
  scan: none requested
config:

	NAME                                     STATE     READ WRITE CKSUM
	fc_rpool                                 ONLINE       0     0     0
	  c0t600144F0DBF8AF190000510979640005d0  ONLINE       0     0     0

영역 설치는 이 ZFS 저장소 풀 내에 완전히 포함됩니다. 영역의 ZFS 데이터 세트 레이아웃은 다음과 같습니다.

root@host:~# zfs list -t all|grep fc
fc_rpool                                  440M  38.7G    32K  /fc
fc_rpool/rpool                            440M  38.7G    31K  /rpool
fc_rpool/rpool/ROOT                       440M  38.7G    31K  legacy
fc_rpool/rpool/ROOT/solaris               440M  38.7G   405M  /fc/root
fc_rpool/rpool/ROOT/solaris@install        67K      -   405M  -
fc_rpool/rpool/ROOT/solaris/var          34.3M  38.7G  33.6M  /fc/root/var
fc_rpool/rpool/ROOT/solaris/var@install   665K      -  33.6M  -
fc_rpool/rpool/VARSHARE                    31K  38.7G    31K  /var/share
fc_rpool/rpool/export                      62K  38.7G    31K  /export
fc_rpool/rpool/export/home                 31K  38.7G    31K  /export/home

광 섬유 채널 대상에서 제공된 공유 저장소에 호스트된 새 영역이 성공적으로 설치되었습니다. 이제 zoneadm boot를 사용하여 이 영역을 부트할 수 있습니다.

영역이 부트된 후 영역 관리자는 영역 내에서 가상 ZFS 데이터 세트 및 저장소 풀을 관찰할 수 있습니다.

root@fc:~# zpool list
NAME    SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
rpool  39.8G   451M  39.3G   1%  1.00x  ONLINE  -

root@fc:~# zpool status -v
  pool: rpool
 state: ONLINE
  scan: none requested
config:

        NAME                                     STATE     READ WRITE CKSUM
        rpool                                    ONLINE       0     0     0
          c0t600144F0DBF8AF190000510979640005d0  ONLINE       0     0     0

root@fc:~# zfs list -t all
NAME                             USED  AVAIL  REFER  MOUNTPOINT
rpool                            467M  38.7G    31K  /rpool
rpool/ROOT                       467M  38.7G    31K  legacy
rpool/ROOT/solaris               467M  38.7G   430M  /
rpool/ROOT/solaris@install      1.90M      -   405M  -
rpool/ROOT/solaris/var          34.4M  38.7G  33.7M  /var
rpool/ROOT/solaris/var@install   703K      -  33.6M  -
rpool/VARSHARE                    39K  38.7G    39K  /var/share
rpool/export                    96.5K  38.7G    32K  /export
rpool/export/home               64.5K  38.7G    32K  /export/home
rpool/export/home/user          32.5K  38.7G  32.5K  /export/home/user