Go to main content
Oracle® Solaris ゾーンの作成と使用

印刷ビューの終了

更新: 2016 年 11 月
 
 

共有ストレージリソースでホストされる Oracle Solaris ゾーン の実装

次のセクションでは、共有ストレージリソースでの Oracle Solaris ゾーンの配備について説明します。

共有ストレージ上のゾーンに関する zpool 構成の考慮事項

ZFS ストレージプールを構成する場合、ミラー、RAIDZ、RAIDZ-2 などの冗長なプール構成を使用してみることができます。共有ストレージリソースをホストするバックエンドストレージで、たとえばハードウェア RAID の形式で障害許容力およびデータ保護が確保されている場合でも、冗長な構成によって、ZFS ストレージプールは固有の自己回復機能を使用できるようになります。

Oracle Solaris ゾーン を共有ストレージリソースでホストする冗長な ZFS ストレージプール構成を使用する 2 つの方法があります。

  • ミラー化した ZFS ストレージプール構成を使用できます。これはデフォルトで、rootzpool リソースまたは zpool リソースのストレージプロパティーをゾーン構成で複数指定した場合、自動的に作成されます。

  • または、zpool create コマンドで、RAIDZ や RAIDZ-2 などのより複雑な ZFS ストレージプール構成をあらかじめ作成しておくこともできます。zpool export を使用して、新しく作成した ZFS ストレージプールを再度エクスポートする必要があることに注意してください。次に、zonecfg コマンドを使用して、ゾーン構成で、すべての対応するストレージリソース URI を rootzpool リソースまたは zpool リソースに追加する必要があります。ゾーンフレームワークは次に、新しい ZFS ストレージプールを作成しようと試みるのではなく、ゾーンのインストールまたはクローン中にこの ZFS ストレージプールをインポートします。

サンプルシナリオ

このセクションでは、共有ストレージリソースに Oracle Solaris ゾーン を配備する例を示します。

使用例 16  iSCSI ベースの共有ストレージデバイスを使用した Oracle Solaris ゾーン

この演習では、iSCSI ターゲット経由で共有ストレージを提供するサンプル構成を Oracle Solaris サーバー上で設定します。ゾーンは Oracle Solaris が動作している 2 番目のサーバーに構成およびインストールされ、iSCSI ベースの共有ストレージリソースを使用してゾーンをホストします。

最初に、次の pkg install コマンドのいずれかを使用して、対応するパッケージをインストールします。最初のコマンドは、マルチプロトコルストレージサーバーグループパッケージ全体をインストールします。itadm(1M) および stmfadm(1M) のマニュアルページに説明されているように、2 番目のコマンドは、一般的なマルチプロトコル SCSI ターゲット (COMSTAR) フレームワーク内で iSCSI のターゲットサポートだけをインストールします。

root@target:~# pkg install group/feature/storage-server
root@target:~# pkg install system/storage/iscsi/iscsi-target

次に、このサーバーから iSCSI ターゲットをエクスポートするためのバッキングストアを作成します。zfs コマンドを使用して、4 つの iSCSI ターゲット論理ユニット用のバッキングストアとして、ターゲットサーバーの rpool/export データセット内に格納される 4 つの ZFS ボリューム (サイズはそれぞれ 10G バイト) を作成します。

root@target:~# zfs create -V 10G rpool/export/zonevol1
root@target:~# zfs create -V 10G rpool/export/zonevol2
root@target:~# zfs create -V 10G rpool/export/zonevol3

バッキングストアを設定したあと、stmfadm コマンドを使用して、各 ZFS ボリュームのターゲット論理ユニットを作成します。これにより、それぞれに対応したデバイス ID (WWN) が与えられ、後からストレージ URI でクライアントホストでの iSCSI ターゲット検出に使用されます。

root@target:~# stmfadm create-lu  /dev/zvol/rdsk/rpool/export/zonevol1
Logical unit created: 600144F035FF8500000050C884E50001
root@target:~# stmfadm create-lu  /dev/zvol/rdsk/rpool/export/zonevol2
Logical unit created: 600144F035FF8500000050C884E80002
root@target:~# stmfadm create-lu  /dev/zvol/rdsk/rpool/export/zonevol3
Logical unit created: 600144F035FF8500000050C884EC0003

stmfadm list-lu 構文で、構成された論理ユニットを表示できます。

root@target:~# stmfadm list-lu
LU Name: 600144F035FF8500000050C884E50001
LU Name: 600144F035FF8500000050C884E80002
LU Name: 600144F035FF8500000050C884EC0003
LU Name: 600144F035FF8500000050C884EC0004

stmfadm list-lu -v 構文で、構成済みの論理ユニットの詳細を照会できます。

root@target:~# stmfadm list-lu -v
LU Name: 600144F035FF8500000050C884E50001
    Operational Status     : Online
    Provider Name          : sbd
    Alias                  : /dev/zvol/rdsk/rpool/export/zonevol1
    View Entry Count       : 0
    Data File              : /dev/zvol/rdsk/rpool/export/zonevol1
    Meta File              : not set
    Size                   : 10737418240
    Block Size             : 512
    Management URL         : not set
    Software ID            : not set
    Vendor ID              : SUN     
    Product ID             : COMSTAR         
    Serial Num             : not set
    Write Protect          : Disabled
    Write Cache Mode Select: Enabled
    Writeback Cache        : Enabled
    Access State           : Active

論理ユニットを iSCSI イニシエータで使用できるようにするには、stmfadm add-view コマンドで、ターゲットサーバーに論理ユニットビューを追加します。

root@target:~# stmfadm add-view 600144F035FF8500000050C884E50001
root@target:~# stmfadm add-view 600144F035FF8500000050C884E80002
root@target:~# stmfadm add-view 600144F035FF8500000050C884EC0003

次に、ターゲットサーバー上で iSCSI ターゲットを構成します。最初に svcadm enable を使用して、iSCSI ターゲット SMF サービスを有効にします。

root@target:~# svcadm enable -r svc:/network/iscsi/target:default

次に、itadm create-target を使用して iSCSI ターゲット自体を作成します。

root@target:~# itadm create-target
Target iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a successfully created

itadm list-target または stmfadm list-target のどちらかを使用すると、構成済みの iSCSI ターゲットに関する詳細を照会できます。

root@target:~# itadm list-target -v
TARGET NAME                                                  STATE    SESSIONS 
iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a  online   0        
        alias:                  -
        auth:                   none (defaults)
        targetchapuser:         -
        targetchapsecret:       unset
        tpg-tags:               default

root@target:~# stmfadm list-target -v
Target: iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a
    Operational Status     : Online
    Provider Name          : iscsit
    Alias                  : -
    Protocol               : iSCSI
    Sessions               : 0

2 番目のサーバー上のゾーン構成で使用される対応するストレージ URI を取得するには、suriadm(1M) を使用します。論理ユニットごとに、ローカルデバイスパスエントリが /dev に作成されています。suriadm コマンドは、iSCSI ストレージ URI の作成に使用されます。

root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884E50001d0
iscsi://target/luname.naa.600144f035ff8500000050c884e50001

root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884E80002d0
iscsi://target/luname.naa.600144f035ff8500000050c884e80002

root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884EC0003d0
iscsi://target/luname.naa.600144f035ff8500000050c884ec0003

stmfadm(1M) に記載されている stmfadm コマンドからの GUID、および itadm(1M) に記載されている stmfadm コマンドからの iSCSI ターゲット IQN に基づいた iSCSI URI を取得するには、次のようにします。

root@accelerated:~# suriadm lookup-uri -t iscsi -p
  target=iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a -p lun=0
  iscsi://accelerated/luname.naa.600144f035ff8500000050c884ef0004
  iscsi://accelerated/target.iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e938
  36ad0d6a,lun.0
root@accelerated:~# suriadm lookup-uri -t iscsi -p
  target=iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a -p lun=1
  iscsi://accelerated/luname.naa.600144f035ff8500000050c884ec0003
  iscsi://accelerated/target.iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e938
  36ad0d6a,lun.1
root@accelerated:~# suriadm lookup-uri -t iscsi -p
  target=iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a -p lun=2
  iscsi://accelerated/luname.naa.600144f035ff8500000050c884e80002
  iscsi://accelerated/target.iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e938
  36ad0d6a,lun.2
root@accelerated:~# suriadm lookup-uri -t iscsi -p
  target=iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a -p lun=3
  iscsi://accelerated/luname.naa.600144f035ff8500000050c884e50001
  iscsi://accelerated/target.iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e938
  36ad0d6a,lun.3

これにより、iSCSI ターゲットストレージを提供するサンプルサーバー上で実行されるタスクが完了します。

次の手順は、iSCSI 経由で提供されるこの共有ストレージを使用して、2 番目のサーバー上でゾーンを構成およびインストールするためのものです。

最初の手順として、iSCSI イニシエータとして選択されたクライアントサーバー上で対応するパッケージをインストールします。

root@initiator:~# pkg install pkg:/system/storage/iscsi/iscsi-initiator

次に、zonecfg コマンドを使用して、rootzpool リソースおよび zpool リソースでゾーンを構成します。共有ストレージリソースとして構成した 3 つの iSCSI ターゲット論理ユニットを使用して、そのゾーンをホストします。ターゲットサーバー上で、以前に suriadm で取得した iSCSI ストレージ URI を使用します。

root@initiator:~# zonecfg -z iscsi 
Use 'create' to begin configuring a new zone.
zonecfg:iscsi> create
create: Using system default template 'SYSdefault'
zonecfg:iscsi> set zonepath=/iscsi
zonecfg:iscsi> add rootzpool
zonecfg:iscsi:rootzpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884E50001
zonecfg:iscsi:rootzpool> end
zonecfg:iscsi> add zpool
zonecfg:iscsi:zpool> set name=data
zonecfg:iscsi:zpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884E80002
zonecfg:iscsi:zpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884EC0003
zonecfg:iscsi:zpool> end
zonecfg:iscsi> commit
zonecfg:iscsi> exit

zoneadm install を使用してゾーンをインストールします。

root@initiator:~# zoneadm -z iscsi install
Configured zone storage resource(s) from:
	iscsi://target/luname.naa.600144F035FF8500000050C884E50001
Created zone zpool: iscsi_rpool
Configured zone storage resource(s) from:
	iscsi://target/luname.naa.600144F035FF8500000050C884E80002
	iscsi://target/luname.naa.600144F035FF8500000050C884EC0003
Created zone zpool: iscsi_data
Progress being logged to /var/log/zones/zoneadm.20130125T112209Z.iscsi.install
       Image: Preparing at /iscsi/root.

 AI Manifest: /tmp/manifest.xml.pmai7h
  SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml
    Zonename: iscsi
Installation: Starting ...

              Creating IPS image
Startup linked: 1/1 done
              Installing packages from:
                  solaris
                      origin:  http://pkg.oracle.com/solaris/release/
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                            183/183   33556/33556  222.2/222.2  3.4M/s

PHASE                                          ITEMS
Installing new actions                   46825/46825
Updating package state database                 Done 
Updating image state                            Done 
Creating fast lookup database                   Done 
Installation: Succeeded

        Note: Man pages can be obtained by installing pkg:/system/manual

 done.

        Done: Installation completed in 266.487 seconds.

  Next Steps: Boot the zone, then log into the zone console (zlogin -C)

              to complete the configuration process.

Log saved in non-global zone as /iscsi/root/var/log/zones/zoneadm.20130125T112209Z.iscsi.install
root@initiator:~# 

ゾーンのインストールが完了したら、zoneadm list を使用して、ゾーンが正しくインストールされたことを確認します。

root@initiator:~# zoneadm list -cp
0:global:running:/::solaris:shared:-:none
-:iscsi:installed:/iscsi:a0a4ba0d-9d6d-cf2c-cc42-f123a5e3ee11:solaris:excl:-:

最後に、zpool コマンドを使用して、このゾーンに関連付けられた、新しく作成した ZFS ストレージプールを監視します。

root@initiator:~# zpool list
NAME          SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
iscsi_data   9.94G  83.5K  9.94G   0%  1.00x  ONLINE  -
iscsi_rpool  9.94G   436M  9.51G   4%  1.00x  ONLINE  -

root@initiator:~# zpool status -v iscsi_rpool
  pool: iscsi_rpool
 state: ONLINE
  scan: none requested
config:

	NAME                                     STATE     READ WRITE CKSUM
	iscsi_rpool                              ONLINE       0     0     0
	  c0t600144F035FF8500000050C884E50001d0  ONLINE       0     0     0

root@initiator:~# zpool status -v iscsi_data
  pool: iscsi_data
 state: ONLINE
  scan: none requested
config:

	NAME                                       STATE     READ WRITE CKSUM
	iscsi_data                                 ONLINE       0     0     0
	  mirror-0                                 ONLINE       0     0     0
	    c0t600144F035FF8500000050C884E80002d0  ONLINE       0     0     0
	    c0t600144F035FF8500000050C884EC0003d0  ONLINE       0     0     0

ゾーンのインストール全体がこの ZFS ストレージプール内に含まれます。このゾーンの ZFS データセットレイアウトは次のとおりです。

root@initiator:~# zfs list -t all|grep iscsi
iscsi_data                                          83.5K  9.78G    31K  /iscsi_data
iscsi_rpool                                          436M  9.36G    32K  /iscsi
iscsi_rpool/rpool                                    436M  9.36G    31K  /rpool
iscsi_rpool/rpool/ROOT                               436M  9.36G    31K  legacy
iscsi_rpool/rpool/ROOT/solaris                       436M  9.36G   390M  /iscsi/root
iscsi_rpool/rpool/ROOT/solaris@install                64K      -   390M  -
iscsi_rpool/rpool/ROOT/solaris/var                  46.1M  9.36G  45.4M  /iscsi/root/var
iscsi_rpool/rpool/ROOT/solaris/var@install           644K      -  45.4M  -
iscsi_rpool/rpool/VARSHARE                            31K  9.36G    31K  /var/share
iscsi_rpool/rpool/export                              62K  9.36G    31K  /export
iscsi_rpool/rpool/export/home                         31K  9.36G    31K  /export/home

iSCSI ベースの共有ストレージリソースでホストされる新しいゾーンは正しくインストールされており、zoneadm(1M) boot を使用してブートすることができるようになっています。

ゾーンがブートされたあと、ゾーン管理者は、仮想化された ZFS データセットおよびストレージプールをゾーン内から監視します。

root@iscsi:~# zpool list
NAME    SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
data   9.94G    85K  9.94G   0%  1.00x  ONLINE  -
rpool  9.94G   449M  9.50G   4%  1.00x  ONLINE  -

root@iscsi:~# zpool status -v
  pool: data
 state: ONLINE
  scan: none requested
config:

        NAME                                       STATE     READ WRITE CKSUM
        data                                       ONLINE       0     0     0
          mirror-0                                 ONLINE       0     0     0
            c0t600144F035FF8500000050C884E80002d0  ONLINE       0     0     0
            c0t600144F035FF8500000050C884EC0003d0  ONLINE       0     0     0

  pool: rpool
 state: ONLINE
  scan: none requested
config:

        NAME                                     STATE     READ WRITE CKSUM
        rpool                                    ONLINE       0     0     0
          c0t600144F035FF8500000050C884E50001d0  ONLINE       0     0     0

root@iscsi:~# zfs list -t all
NAME                             USED  AVAIL  REFER  MOUNTPOINT
data                              85K  9.78G    31K  /data
rpool                            464M  9.33G    31K  /rpool
rpool/ROOT                       464M  9.33G    31K  legacy
rpool/ROOT/solaris               464M  9.33G   416M  /
rpool/ROOT/solaris@install      1.83M      -   390M  -
rpool/ROOT/solaris/var          46.2M  9.33G  45.6M  /var
rpool/ROOT/solaris/var@install   674K      -  45.4M  -
rpool/VARSHARE                    39K  9.33G    39K  /var/share
rpool/export                    96.5K  9.33G    32K  /export
rpool/export/home               64.5K  9.33G    32K  /export/home
rpool/export/home/user          32.5K  9.33G  32.5K  /export/home/user
使用例 17  DAS ストレージデバイスを使用した Oracle Solaris ゾーン の例

この演習では、直接接続したローカルストレージデバイスを使用して、Oracle Solaris 上でゾーンを構成しインストールします。この方法は通常、異なるホスト間で移植できないことに注意してください。

最初に、format コマンドを使用して、利用可能なローカルディスクを検出します。次に、suriadm lookup-uri を使用して、ゾーン構成内で使用される対応するストレージ URI を構築します。

root@host:~# format
Searching for disks...done
AVAILABLE DISK SELECTIONS:
       1. c4t1d0 <SEAGATE-ST336704LSUN36G-0326-33.92GB>
          /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@1,0
       2. c4t2d0 <FUJITSU-MAT3073NC-0104-68.49GB>
          /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@2,0
       3. c4t3d0 <SEAGATE-ST336704LSUN36G-0326-33.92GB>
          /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@3,0
       4. c4t4d0 <FUJITSU-MAW3073NC-0103-68.49GB>
          /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@4,0

root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t1d0
dev:dsk/c4t1d0
root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t2d0
dev:dsk/c4t2d0
root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t3d0
dev:dsk/c4t3d0
root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t4d0
dev:dsk/c4t4d0

これらのストレージ URI を使用して、rootzpool および zpool リソース (どちらもミラー化された ZFS ストレージプールを示す) でゾーンを構成します。

root@host:~# zonecfg -z disk 
Use 'create' to begin configuring a new zone.
zonecfg:disk> create
create: Using system default template 'SYSdefault'
zonecfg:disk> set zonepath=/disk
zonecfg:disk> add rootzpool
zonecfg:disk:rootzpool> add storage dev:dsk/c4t1d0
zonecfg:disk:rootzpool> add storage dev:dsk/c4t3d0
zonecfg:disk:rootzpool> end
zonecfg:disk> add zpool
zonecfg:disk:zpool> set name=dpool
zonecfg:disk:zpool> add storage dev:dsk/c4t2d0
zonecfg:disk:zpool> add storage dev:dsk/c4t4d0
zonecfg:disk:zpool> end
zonecfg:disk> commit
zonecfg:disk> exit

次にゾーンをインストールします。

root@host:~# zoneadm -z disk install
Created zone zpool: disk_rpool
Created zone zpool: disk_dpool
Progress being logged to /var/log/zones/zoneadm.20130213T132236Z.disk.install
       Image: Preparing at /disk/root.

 AI Manifest: /tmp/manifest.xml.rOaOhe
  SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml
    Zonename: disk
Installation: Starting ...

              Creating IPS image
Startup linked: 1/1 done
              Installing packages from:
                  solaris
                      origin:  http://pkg.oracle.com/solaris/release/
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                            183/183   33556/33556  222.2/222.2  2.0M/s

PHASE                                          ITEMS
Installing new actions                   46825/46825
Updating package state database                 Done 
Updating image state                            Done 
Creating fast lookup database                   Done 
Installation: Succeeded

        Note: Man pages can be obtained by installing pkg:/system/manual

 done.

        Done: Installation completed in 308.358 seconds.

  Next Steps: Boot the zone, then log into the zone console (zlogin -C)

              to complete the configuration process.

Log saved in non-global zone as /disk/root/var/log/zones/zoneadm.20130213T132236Z.disk.install
root@host:~# 

ゾーンのインストール後、次の 2 つの新しい ZFS ストレージプールがオンラインになります。

root@host:/# zpool list
NAME         SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
disk_dpool    68G  83.5K  68.0G   0%  1.00x  ONLINE  -
disk_rpool  33.8G   434M  33.3G   1%  1.00x  ONLINE  -

root@host:/# zpool status -v disk_rpool
  pool: disk_rpool
 state: ONLINE
  scan: none requested
config:

	NAME        STATE     READ WRITE CKSUM
	disk_rpool  ONLINE       0     0     0
	  mirror-0  ONLINE       0     0     0
	    c4t1d0  ONLINE       0     0     0
	    c4t3d0  ONLINE       0     0     0

root@host:/# zpool status -v disk_dpool
  pool: disk_dpool
 state: ONLINE
  scan: none requested
config:

	NAME        STATE     READ WRITE CKSUM
	disk_dpool  ONLINE       0     0     0
	  mirror-0  ONLINE       0     0     0
	    c4t2d0  ONLINE       0     0     0
	    c4t4d0  ONLINE       0     0     0

ゾーンのインストール全体がこの ZFS ストレージプール内に含まれます。このゾーンの ZFS データセットレイアウトは次のとおりです。

root@host:~# zfs list -t all|grep disk
disk_dpool                                           83.5K  66.9G    31K  /disk_dpool
disk_rpool                                            434M  32.8G    32K  /disk
disk_rpool/rpool                                      433M  32.8G    31K  /rpool
disk_rpool/rpool/ROOT                                 433M  32.8G    31K  legacy
disk_rpool/rpool/ROOT/solaris                         433M  32.8G   389M  /disk/root
disk_rpool/rpool/ROOT/solaris@install                  63K      -   389M  -
disk_rpool/rpool/ROOT/solaris/var                    43.8M  32.8G  43.2M  /disk/root/var
disk_rpool/rpool/ROOT/solaris/var@install             584K      -  43.2M  -
disk_rpool/rpool/VARSHARE                              31K  32.8G    31K  /var/share
disk_rpool/rpool/export                                62K  32.8G    31K  /export
disk_rpool/rpool/export/home                           31K  32.8G    31K  /export/home

ローカルデバイスストレージリソースでホストされる新しいゾーンは正しくインストールされており、zoneadm boot コマンドを使用してブートできるようになっています。

ゾーンがブートされたあと、ゾーン管理者は、仮想化された ZFS データセットおよびストレージプールをゾーン内部から監視できます。

root@disk:~# zpool list
NAME    SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
dpool    68G  83.5K  68.0G   0%  1.00x  ONLINE  -
rpool  33.8G   472M  33.3G   1%  1.00x  ONLINE  -

root@disk:~# zpool status -v
  pool: dpool
 state: ONLINE
  scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        dpool       ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            c4t2d0  ONLINE       0     0     0
            c4t4d0  ONLINE       0     0     0

  pool: rpool
 state: ONLINE
  scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        rpool       ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            c4t1d0  ONLINE       0     0     0
            c4t3d0  ONLINE       0     0     0

root@disk:~# zfs list -t all
NAME                             USED  AVAIL  REFER  MOUNTPOINT
dpool                           83.5K  66.9G    31K  /dpool
rpool                            465M  32.8G    31K  /rpool
rpool/ROOT                       465M  32.8G    31K  legacy
rpool/ROOT/solaris               465M  32.8G   416M  /
rpool/ROOT/solaris@install      5.60M      -   389M  -
rpool/ROOT/solaris/var          43.9M  32.8G  43.3M  /var
rpool/ROOT/solaris/var@install   618K      -  43.2M  -
rpool/VARSHARE                    39K  32.8G    39K  /var/share
rpool/export                    96.5K  32.8G    32K  /export
rpool/export/home               64.5K  32.8G    32K  /export/home
rpool/export/home/user          32.5K  32.8G  32.5K  /export/home/user
使用例 18  ファイバチャネルベースのストレージデバイスを使用した Oracle Solaris ゾーン

この演習では、ファイバチャネルを介して提供される共有ストレージデバイスを使用して、Oracle Solaris 上でゾーンを構成しインストールします。

最初に、fcinfo lu コマンドを使用することによって、現在ホストから確認できるファイバチャネルの論理ユニットを検出します。

root@host:~# fcinfo lu -v
OS Device Name: /dev/rdsk/c0t600144F0DBF8AF190000510979640005d0s2
        HBA Port WWN: 10000000c9991d8c
                Remote Port WWN: 21000024ff3ee89f
                        LUN: 5
        Vendor: SUN     
        Product: ZFS Storage 7120
        Device Type: Disk Device

suriadm lookup-uri を使用して、デバイスパスに基づいてストレージ URI を構築します。クエリーで LU 全体を表すストレージ URI を取得できるように、デバイス名のスライス部分を削除します。

root@host:~# suriadm lookup-uri /dev/dsk/c0t600144F0DBF8AF190000510979640005d0
lu:luname.naa.600144f0dbf8af190000510979640005
lu:initiator.naa.10000000c9991d8c,target.naa.21000024ff3ee89f,luname.naa.600144f0dbf8af190000510979640005
dev:dsk/c0t600144F0DBF8AF190000510979640005d0

表示された 3 つの URI から、ゾーン構成で使用する、luname のみの形式の論理ユニットストレージ URI を選択します。

root@host:~# zonecfg -z fc
Use 'create' to begin configuring a new zone.
zonecfg:fc> create
create: Using system default template 'SYSdefault'
zonecfg:fc> set zonepath=/fc
zonecfg:fc> add rootzpool
zonecfg:fc:rootzpool> add storage lu:luname.naa.600144f0dbf8af190000510979640005
zonecfg:fc:rootzpool> end
zonecfg:fc> commit
zonecfg:fc> exit

ゾーンをインストールします。

root@host:~# zoneadm -z fc install
Created zone zpool: fc_rpool
Progress being logged to /var/log/zones/zoneadm.20130214T045957Z.fc.install
       Image: Preparing at /fc/root.

AI Manifest: /tmp/manifest.xml.K9aaow
SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml
  Zonename: fc
Installation: Starting ...

            Creating IPS image
Startup linked: 1/1 done
            Installing packages from:
                solaris
                    origin:   http://pkg.oracle.com/solaris/release/
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                            190/190   34246/34246  231.3/231.3  7.2M/s

PHASE                                          ITEMS
Installing new actions                   48231/48231
Updating package state database                 Done 
Updating image state                            Done 
Creating fast lookup database                   Done 
Installation: Succeeded

        Note: Man pages can be obtained by installing pkg:/system/manual

 done.

        Done: Installation completed in 104.318 seconds.

  Next Steps: Boot the zone, then log into the zone console (zlogin -C)

              to complete the configuration process.

Log saved in non-global zone as /fc/root/var/log/zones/zoneadm.20130214T045957Z.fc.install
root@host:~# 

ゾーンのインストール後、次の新しい ZFS ストレージプールがオンラインになります。

root@host:~# zpool list
NAME       SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
fc_rpool  39.8G   441M  39.3G   1%  1.00x  ONLINE  -

root@host:~# zpool status -v fc_rpool
  pool: fc_rpool
 state: ONLINE
  scan: none requested
config:

	NAME                                     STATE     READ WRITE CKSUM
	fc_rpool                                 ONLINE       0     0     0
	  c0t600144F0DBF8AF190000510979640005d0  ONLINE       0     0     0

ゾーンのインストール全体がこの ZFS ストレージプール内に含まれます。ゾーンには次の ZFS データセットレイアウトがあります。

root@host:~# zfs list -t all|grep fc
fc_rpool                                  440M  38.7G    32K  /fc
fc_rpool/rpool                            440M  38.7G    31K  /rpool
fc_rpool/rpool/ROOT                       440M  38.7G    31K  legacy
fc_rpool/rpool/ROOT/solaris               440M  38.7G   405M  /fc/root
fc_rpool/rpool/ROOT/solaris@install        67K      -   405M  -
fc_rpool/rpool/ROOT/solaris/var          34.3M  38.7G  33.6M  /fc/root/var
fc_rpool/rpool/ROOT/solaris/var@install   665K      -  33.6M  -
fc_rpool/rpool/VARSHARE                    31K  38.7G    31K  /var/share
fc_rpool/rpool/export                      62K  38.7G    31K  /export
fc_rpool/rpool/export/home                 31K  38.7G    31K  /export/home

ファイバチャネルターゲットから提供される共有ストレージでホストされる新しいゾーンは、正しくインストールされました。これで、zoneadm boot を使用してこのゾーンをブートできます。

ゾーンがブートされたあと、ゾーン管理者は、仮想化された ZFS データセットおよびストレージプールをゾーン内部から監視できます。

root@fc:~# zpool list
NAME    SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
rpool  39.8G   451M  39.3G   1%  1.00x  ONLINE  -

root@fc:~# zpool status -v
  pool: rpool
 state: ONLINE
  scan: none requested
config:

        NAME                                     STATE     READ WRITE CKSUM
        rpool                                    ONLINE       0     0     0
          c0t600144F0DBF8AF190000510979640005d0  ONLINE       0     0     0

root@fc:~# zfs list -t all
NAME                             USED  AVAIL  REFER  MOUNTPOINT
rpool                            467M  38.7G    31K  /rpool
rpool/ROOT                       467M  38.7G    31K  legacy
rpool/ROOT/solaris               467M  38.7G   430M  /
rpool/ROOT/solaris@install      1.90M      -   405M  -
rpool/ROOT/solaris/var          34.4M  38.7G  33.7M  /var
rpool/ROOT/solaris/var@install   703K      -  33.6M  -
rpool/VARSHARE                    39K  38.7G    39K  /var/share
rpool/export                    96.5K  38.7G    32K  /export
rpool/export/home               64.5K  38.7G    32K  /export/home
rpool/export/home/user          32.5K  38.7G  32.5K  /export/home/user