Création et utilisation d'Oracle® Solaris Zones

Quitter la vue de l'impression

Mis à jour : Mai 2015
 
 

Exemples de scénarios

Cette section fournit des exemples pour le déploiement de Oracle Solaris Zones sur les ressources de stockage partagé.

Exemple 14-6  Oracle Solaris Zones utilisant des périphériques de stockage partagé basés sur iSCSI

Cet exercice définit un exemple de configuration sur un serveur Oracle Solaris 11 qui fournit un stockage partagé via une cible iSCSI. Nous configurerons et installerons ensuite une zone sur un deuxième serveur exécutant Oracle Solaris et utiliserons ces ressources de stockage partagé basées sur iSCSI pour héberger une zone.

Pour commencer, nous installons le package correspondant, à l'aide des commandes pkg install suivantes. La première commande installe l'ensemble du package de groupe de serveur de stockage multi-protocole. La deuxième commande installe seulement la prise en charge d'iSCSI par les cibles au sein de la structure COMSTAR (cible SCSI multi-protocole commune), comme décrit dans les pages de manuel itadm(1M) et stmfadm(1M).

root@target:~# pkg install group/feature/storage-server
root@target:~# pkg install system/storage/iscsi/iscsi-target

Ensuite, créez le magasin de sauvegarde pour les cibles iSCSI à exporter à partir de ce serveur. A l'aide de la commande zfs, créez trois volumes ZFS en tant que magasin de sauvegarde pour trois unités logiques cibles iSCSI de 10 Go chacun, stockés dans les jeux de données rpool/export des serveurs cibles.

root@target:~# zfs create -V 10G rpool/export/zonevol1
root@target:~# zfs create -V 10G rpool/export/zonevol2
root@target:~# zfs create -V 10G rpool/export/zonevol3

Après avoir défini le magasin de sauvegarde, utilisez la commande stmfadm pour créer des unités logiques cibles pour chaque volume ZFS. Cela nous permet d'obtenir l'ID de périphérique (WWN) correspondant pour chaque périphérique, qui sera utilisé plus tard dans l'URI de stockage pour la découverte de cible iSCSI sur l'hôte client.

root@target:~# stmfadm create-lu  /dev/zvol/rdsk/rpool/export/zonevol1
Logical unit created: 600144F035FF8500000050C884E50001
root@target:~# stmfadm create-lu  /dev/zvol/rdsk/rpool/export/zonevol2
Logical unit created: 600144F035FF8500000050C884E80002
root@target:~# stmfadm create-lu  /dev/zvol/rdsk/rpool/export/zonevol3
Logical unit created: 600144F035FF8500000050C884EC0003

Vous pouvez visualiser les unités logiques configurées à l'aide de la syntaxe stmfadm list-lu.

root@target:~# stmfadm list-lu
LU Name: 600144F035FF8500000050C884E50001
LU Name: 600144F035FF8500000050C884E80002
LU Name: 600144F035FF8500000050C884EC0003

Vous pouvez demander les détails des unités logiques configurées avec la syntaxe stmfadm list-lu -v.

root@target:~# stmfadm list-lu -v
LU Name: 600144F035FF8500000050C884E50001
    Operational Status     : Online
    Provider Name          : sbd
    Alias                  : /dev/zvol/rdsk/rpool/export/zonevol1
    View Entry Count       : 0
    Data File              : /dev/zvol/rdsk/rpool/export/zonevol1
    Meta File              : not set
    Size                   : 10737418240
    Block Size             : 512
    Management URL         : not set
    Software ID            : not set
    Vendor ID              : SUN     
    Product ID             : COMSTAR         
    Serial Num             : not set
    Write Protect          : Disabled
    Write Cache Mode Select: Enabled
    Writeback Cache        : Enabled
    Access State           : Active

Pour rendre disponible aux initiateurs iSCSI l'unité logique, ajoutez une vue d'unité logique au serveur cible à l'aide de la commande stmfadm add-view.

root@target:~# stmfadm add-view 600144F035FF8500000050C884E50001
root@target:~# stmfadm add-view 600144F035FF8500000050C884E80002
root@target:~# stmfadm add-view 600144F035FF8500000050C884EC0003

Configurons maintenant la cible iSCSI sur le serveur cible. Commencez par activer le service SMF de la cible iSCSI à l'aide de la commande svcadm enable.

root@target:~# svcadm enable -r svc:/network/iscsi/target:default

Créez ensuite la cible iSCSI elle-même à l'aide de la commande itadm create-target.

root@target:~# itadm create-target
Target iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a successfully created

Vous pouvez demander les détails des cibles iSCSI configurées à l'aide des commandes itadm list-target ou stmfadm list-target.

root@target:~# itadm list-target -v
TARGET NAME                                                  STATE    SESSIONS 
iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a  online   0        
        alias:                  -
        auth:                   none (defaults)
        targetchapuser:         -
        targetchapsecret:       unset
        tpg-tags:               default

root@target:~# stmfadm list-target -v
Target: iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a
    Operational Status     : Online
    Provider Name          : iscsit
    Alias                  : -
    Protocol               : iSCSI
    Sessions               : 0

La dernière étape est l'utilisation de suriadm(1M) pour obtenir les URI de stockage correspondants à utiliser dans la configuration de zone sur le deuxième serveur. Pour chaque unité logique, une entrée de chemin d'accès de périphérique local a été créée dans /dev. La commande suriadm permet de créer l'URI de stockage iSCSI.

root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884E50001d0
iscsi://target/luname.naa.600144f035ff8500000050c884e50001

root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884E80002d0
iscsi://target/luname.naa.600144f035ff8500000050c884e80002

root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884EC0003d0
iscsi://target/luname.naa.600144f035ff8500000050c884ec0003

Toutes les tâches requises sur le serveur exemple hébergeant le stockage cible iSCSI sont maintenant effectuées.

Nous pouvons passer à la configuration et à l'installation d'une zone sur le deuxième serveur à l'aide de ce stockage partagé fourni via iSCSI.

La première étape est d'installer le package correspondant sur le serveur client sélectionné pour être l'initiateur iSCSI.

root@initiator:~# pkg install pkg:/system/storage/iscsi/iscsi-initiator

Ensuite, nous utilisons la commande zonecfg pour configurer une zone avec une ressource rootzpool ou zpool. Nous utilisons les trois unités logiques cibles iSCSI que nous avons configurées en tant que ressources de stockage partagé pour héberger la zone. Nous utilisons les URI de stockage iSCSI que nous avons obtenus précédemment avec la commande suriadm sur le serveur cible.

root@initiator:~# zonecfg -z iscsi 
Use 'create' to begin configuring a new zone.
zonecfg:iscsi> create
create: Using system default template 'SYSdefault'
zonecfg:iscsi> set zonepath=/iscsi
zonecfg:iscsi> add rootzpool
zonecfg:iscsi:rootzpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884E50001
zonecfg:iscsi:rootzpool> end
zonecfg:iscsi> add zpool
zonecfg:iscsi:zpool> set name=data
zonecfg:iscsi:zpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884E80002
zonecfg:iscsi:zpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884EC0003
zonecfg:iscsi:zpool> end
zonecfg:iscsi> commit
zonecfg:iscsi> exit

Nous sommes maintenant prêts à installer la zone à l'aide de la commande zoneadm install.

root@initiator:~# zoneadm -z iscsi install
Configured zone storage resource(s) from:
	iscsi://target/luname.naa.600144F035FF8500000050C884E50001
Created zone zpool: iscsi_rpool
Configured zone storage resource(s) from:
	iscsi://target/luname.naa.600144F035FF8500000050C884E80002
	iscsi://target/luname.naa.600144F035FF8500000050C884EC0003
Created zone zpool: iscsi_data
Progress being logged to /var/log/zones/zoneadm.20130125T112209Z.iscsi.install
       Image: Preparing at /iscsi/root.

 AI Manifest: /tmp/manifest.xml.pmai7h
  SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml
    Zonename: iscsi
Installation: Starting ...

              Creating IPS image
Startup linked: 1/1 done
              Installing packages from:
                  solaris
                      origin:  http://pkg.oracle.com/solaris/release/
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                            183/183   33556/33556  222.2/222.2  3.4M/s

PHASE                                          ITEMS
Installing new actions                   46825/46825
Updating package state database                 Done 
Updating image state                            Done 
Creating fast lookup database                   Done 
Installation: Succeeded

        Note: Man pages can be obtained by installing pkg:/system/manual

 done.

        Done: Installation completed in 266.487 seconds.

  Next Steps: Boot the zone, then log into the zone console (zlogin -C)

              to complete the configuration process.

Log saved in non-global zone as /iscsi/root/var/log/zones/zoneadm.20130125T112209Z.iscsi.install
root@initiator:~# 

Une fois que l'installation de zone est terminée, nous vérifions que la zone a été correctement installée avec la commande zoneadm(1M) list.

root@initiator:~# zoneadm list -cp
0:global:running:/::solaris:shared:-:none
-:iscsi:installed:/iscsi:a0a4ba0d-9d6d-cf2c-cc42-f123a5e3ee11:solaris:excl:-:

Pour finir, nous pouvons observer les pools de stockage ZFS nouvellement créés associés à cette zone à l'aide de la commande zpool.

root@initiator:~# zpool list
NAME          SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
iscsi_data   9.94G  83.5K  9.94G   0%  1.00x  ONLINE  -
iscsi_rpool  9.94G   436M  9.51G   4%  1.00x  ONLINE  -

root@initiator:~# zpool status -v iscsi_rpool
  pool: iscsi_rpool
 state: ONLINE
  scan: none requested
config:

	NAME                                     STATE     READ WRITE CKSUM
	iscsi_rpool                              ONLINE       0     0     0
	  c0t600144F035FF8500000050C884E50001d0  ONLINE       0     0     0

root@initiator:~# zpool status -v iscsi_data
  pool: iscsi_data
 state: ONLINE
  scan: none requested
config:

	NAME                                       STATE     READ WRITE CKSUM
	iscsi_data                                 ONLINE       0     0     0
	  mirror-0                                 ONLINE       0     0     0
	    c0t600144F035FF8500000050C884E80002d0  ONLINE       0     0     0
	    c0t600144F035FF8500000050C884EC0003d0  ONLINE       0     0     0

L'installation de la zone est entièrement contenue dans ce pool de stockage ZFS. L'organisation du jeu de données ZFS pour cette zone est indiquée ci-dessous.

root@initiator:~# zfs list -t all|grep iscsi
iscsi_data                                          83.5K  9.78G    31K  /iscsi_data
iscsi_rpool                                          436M  9.36G    32K  /iscsi
iscsi_rpool/rpool                                    436M  9.36G    31K  /rpool
iscsi_rpool/rpool/ROOT                               436M  9.36G    31K  legacy
iscsi_rpool/rpool/ROOT/solaris                       436M  9.36G   390M  /iscsi/root
iscsi_rpool/rpool/ROOT/solaris@install                64K      -   390M  -
iscsi_rpool/rpool/ROOT/solaris/var                  46.1M  9.36G  45.4M  /iscsi/root/var
iscsi_rpool/rpool/ROOT/solaris/var@install           644K      -  45.4M  -
iscsi_rpool/rpool/VARSHARE                            31K  9.36G    31K  /var/share
iscsi_rpool/rpool/export                              62K  9.36G    31K  /export
iscsi_rpool/rpool/export/home                         31K  9.36G    31K  /export/home

La nouvelle zone hébergée sur les ressources de stockage partagé basées sur iSCSI a été correctement installée et peut maintenant être initialisée à l'aide de la commande zoneadm(1M) boot.

Après l'initialisation de cette zone, l'administrateur de zone observe les jeux de données ZFS virtualisés et les pools de stockage depuis l'intérieur de la zone.

root@iscsi:~# zpool list
NAME    SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
data   9.94G    85K  9.94G   0%  1.00x  ONLINE  -
rpool  9.94G   449M  9.50G   4%  1.00x  ONLINE  -

root@iscsi:~# zpool status -v
  pool: data
 state: ONLINE
  scan: none requested
config:

        NAME                                       STATE     READ WRITE CKSUM
        data                                       ONLINE       0     0     0
          mirror-0                                 ONLINE       0     0     0
            c0t600144F035FF8500000050C884E80002d0  ONLINE       0     0     0
            c0t600144F035FF8500000050C884EC0003d0  ONLINE       0     0     0

  pool: rpool
 state: ONLINE
  scan: none requested
config:

        NAME                                     STATE     READ WRITE CKSUM
        rpool                                    ONLINE       0     0     0
          c0t600144F035FF8500000050C884E50001d0  ONLINE       0     0     0

root@iscsi:~# zfs list -t all
NAME                             USED  AVAIL  REFER  MOUNTPOINT
data                              85K  9.78G    31K  /data
rpool                            464M  9.33G    31K  /rpool
rpool/ROOT                       464M  9.33G    31K  legacy
rpool/ROOT/solaris               464M  9.33G   416M  /
rpool/ROOT/solaris@install      1.83M      -   390M  -
rpool/ROOT/solaris/var          46.2M  9.33G  45.6M  /var
rpool/ROOT/solaris/var@install   674K      -  45.4M  -
rpool/VARSHARE                    39K  9.33G    39K  /var/share
rpool/export                    96.5K  9.33G    32K  /export
rpool/export/home               64.5K  9.33G    32K  /export/home
rpool/export/home/user          32.5K  9.33G  32.5K  /export/home/user
Exemple 14-7  Exemple de Oracle Solaris Zones utilisant des périphériques de stockage DAS

Cet exercice utilise les périphériques de stockage locaux à accès direct pour configurer et installer une zone sur Oracle Solaris. Notez que cette méthode n'est généralement pas portable sur différents hôtes.

Commencez par découvrir les disques locaux disponibles avec la commande format et utilisez suriadm lookup-uri pour construire les URI de stockage correspondants à utiliser dans la configuration de zone.

root@host:~# format
Searching for disks...done
AVAILABLE DISK SELECTIONS:
       1. c4t1d0 <SEAGATE-ST336704LSUN36G-0326-33.92GB>
          /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@1,0
       2. c4t2d0 <FUJITSU-MAT3073NC-0104-68.49GB>
          /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@2,0
       3. c4t3d0 <SEAGATE-ST336704LSUN36G-0326-33.92GB>
          /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@3,0
       4. c4t4d0 <FUJITSU-MAW3073NC-0103-68.49GB>
          /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@4,0

root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t1d0
dev:dsk/c4t1d0
root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t2d0
dev:dsk/c4t2d0
root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t3d0
dev:dsk/c4t3d0
root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t4d0
dev:dsk/c4t4d0

A l'aide de ces URI de stockage, nous configurons une zone avec une ressource rootzpool et une ressource zpool, qui représentent toutes deux les pools de stockage ZFS mis en miroir.

root@host:~# zonecfg -z disk 
Use 'create' to begin configuring a new zone.
zonecfg:disk> create
create: Using system default template 'SYSdefault'
zonecfg:disk> set zonepath=/disk
zonecfg:disk> add rootzpool
zonecfg:disk:rootzpool> add storage dev:dsk/c4t1d0
zonecfg:disk:rootzpool> add storage dev:dsk/c4t3d0
zonecfg:disk:rootzpool> end
zonecfg:disk> add zpool
zonecfg:disk:zpool> set name=dpool
zonecfg:disk:zpool> add storage dev:dsk/c4t2d0
zonecfg:disk:zpool> add storage dev:dsk/c4t4d0
zonecfg:disk:zpool> end
zonecfg:disk> commit
zonecfg:disk> exit

Installez maintenant la zone.

root@host:~# zoneadm -z disk install
Created zone zpool: disk_rpool
Created zone zpool: disk_dpool
Progress being logged to /var/log/zones/zoneadm.20130213T132236Z.disk.install
       Image: Preparing at /disk/root.

 AI Manifest: /tmp/manifest.xml.rOaOhe
  SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml
    Zonename: disk
Installation: Starting ...

              Creating IPS image
Startup linked: 1/1 done
              Installing packages from:
                  solaris
                      origin:  http://pkg.oracle.com/solaris/release/
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                            183/183   33556/33556  222.2/222.2  2.0M/s

PHASE                                          ITEMS
Installing new actions                   46825/46825
Updating package state database                 Done 
Updating image state                            Done 
Creating fast lookup database                   Done 
Installation: Succeeded

        Note: Man pages can be obtained by installing pkg:/system/manual

 done.

        Done: Installation completed in 308.358 seconds.

  Next Steps: Boot the zone, then log into the zone console (zlogin -C)

              to complete the configuration process.

Log saved in non-global zone as /disk/root/var/log/zones/zoneadm.20130213T132236Z.disk.install
root@host:~# 

Après l'installation de la zone, les deux nouveaux pools de stockage ZFS suivants sont en ligne.

root@host:/# zpool list
NAME         SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
disk_dpool    68G  83.5K  68.0G   0%  1.00x  ONLINE  -
disk_rpool  33.8G   434M  33.3G   1%  1.00x  ONLINE  -

root@host:/# zpool status -v disk_rpool
  pool: disk_rpool
 state: ONLINE
  scan: none requested
config:

	NAME        STATE     READ WRITE CKSUM
	disk_rpool  ONLINE       0     0     0
	  mirror-0  ONLINE       0     0     0
	    c4t1d0  ONLINE       0     0     0
	    c4t3d0  ONLINE       0     0     0

root@host:/# zpool status -v disk_dpool
  pool: disk_dpool
 state: ONLINE
  scan: none requested
config:

	NAME        STATE     READ WRITE CKSUM
	disk_dpool  ONLINE       0     0     0
	  mirror-0  ONLINE       0     0     0
	    c4t2d0  ONLINE       0     0     0
	    c4t4d0  ONLINE       0     0     0

L'installation de la zone est entièrement contenue dans ce pool de stockage ZFS. L'organisation de jeu de données ZFS suivante pour cette zone est présente.

root@host:~# zfs list -t all|grep disk
disk_dpool                                           83.5K  66.9G    31K  /disk_dpool
disk_rpool                                            434M  32.8G    32K  /disk
disk_rpool/rpool                                      433M  32.8G    31K  /rpool
disk_rpool/rpool/ROOT                                 433M  32.8G    31K  legacy
disk_rpool/rpool/ROOT/solaris                         433M  32.8G   389M  /disk/root
disk_rpool/rpool/ROOT/solaris@install                  63K      -   389M  -
disk_rpool/rpool/ROOT/solaris/var                    43.8M  32.8G  43.2M  /disk/root/var
disk_rpool/rpool/ROOT/solaris/var@install             584K      -  43.2M  -
disk_rpool/rpool/VARSHARE                              31K  32.8G    31K  /var/share
disk_rpool/rpool/export                                62K  32.8G    31K  /export
disk_rpool/rpool/export/home                           31K  32.8G    31K  /export/home

La nouvelle zone hébergée sur les ressources de stockage de périphériques locaux a été correctement installée et peut maintenant être initialisée à l'aide de la commande zoneadm boot.

Après l'initialisation de cette zone, l'administrateur de zone observe les jeux de données ZFS virtualisés et les pools de stockage depuis l'intérieur de la zone.

root@disk:~# zpool list
NAME    SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
dpool    68G  83.5K  68.0G   0%  1.00x  ONLINE  -
rpool  33.8G   472M  33.3G   1%  1.00x  ONLINE  -

root@disk:~# zpool status -v
  pool: dpool
 state: ONLINE
  scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        dpool       ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            c4t2d0  ONLINE       0     0     0
            c4t4d0  ONLINE       0     0     0

  pool: rpool
 state: ONLINE
  scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        rpool       ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            c4t1d0  ONLINE       0     0     0
            c4t3d0  ONLINE       0     0     0

root@disk:~# zfs list -t all
NAME                             USED  AVAIL  REFER  MOUNTPOINT
dpool                           83.5K  66.9G    31K  /dpool
rpool                            465M  32.8G    31K  /rpool
rpool/ROOT                       465M  32.8G    31K  legacy
rpool/ROOT/solaris               465M  32.8G   416M  /
rpool/ROOT/solaris@install      5.60M      -   389M  -
rpool/ROOT/solaris/var          43.9M  32.8G  43.3M  /var
rpool/ROOT/solaris/var@install   618K      -  43.2M  -
rpool/VARSHARE                    39K  32.8G    39K  /var/share
rpool/export                    96.5K  32.8G    32K  /export
rpool/export/home               64.5K  32.8G    32K  /export/home
rpool/export/home/user          32.5K  32.8G  32.5K  /export/home/user
Exemple 14-8  Oracle Solaris Zones utilisant des périphériques de stockage basés sur Fibre Channel

Cet exercice utilise un périphérique de stockage partagé fourni via Fibre Channel pour configurer et installer une zone sur Oracle Solaris.

Commencez par découvrir les unités logique Fibre Channel actuellement visibles par notre hôte à l'aide de la commande fcinfo lu.

root@host:~# fcinfo lu -v
OS Device Name: /dev/rdsk/c0t600144F0DBF8AF190000510979640005d0s2
        HBA Port WWN: 10000000c9991d8c
                Remote Port WWN: 21000024ff3ee89f
                        LUN: 5
        Vendor: SUN     
        Product: ZFS Storage 7120
        Device Type: Disk Device

Utilisez suriadm lookup-uri pour construire un URI de stockage basé sur un chemin d'accès de périphérique. Retirez la partie concernant la tranche du nom de périphérique pour que la demande obtienne un URI de stockage représentant une unité logique complète.

root@host:~# suriadm lookup-uri /dev/dsk/c0t600144F0DBF8AF190000510979640005d0
lu:luname.naa.600144f0dbf8af190000510979640005
lu:initiator.naa.10000000c9991d8c,target.naa.21000024ff3ee89f,luname.naa.600144f0dbf8af190000510979640005
dev:dsk/c0t600144F0DBF8AF190000510979640005d0

A partir des trois URI affichés, sélectionnons la forme luname seul pour l'URI de stockage d'unité logique à utiliser dans la configuration de zone.

root@host:~# zonecfg -z fc
Use 'create' to begin configuring a new zone.
zonecfg:fc> create
create: Using system default template 'SYSdefault'
zonecfg:fc> set zonepath=/fc
zonecfg:fc> add rootzpool
zonecfg:fc:rootzpool> add storage lu:luname.naa.600144f0dbf8af190000510979640005
zonecfg:fc:rootzpool> end
zonecfg:fc> commit
zonecfg:fc> exit

Nous sommes maintenant prêts à installer la zone.

root@host:~# zoneadm -z fc install
Created zone zpool: fc_rpool
Progress being logged to /var/log/zones/zoneadm.20130214T045957Z.fc.install
       Image: Preparing at /fc/root.

AI Manifest: /tmp/manifest.xml.K9aaow
SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml
  Zonename: fc
Installation: Starting ...

            Creating IPS image
Startup linked: 1/1 done
            Installing packages from:
                solaris
                    origin:   http://pkg.oracle.com/solaris/release/
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                            190/190   34246/34246  231.3/231.3  7.2M/s

PHASE                                          ITEMS
Installing new actions                   48231/48231
Updating package state database                 Done 
Updating image state                            Done 
Creating fast lookup database                   Done 
Installation: Succeeded

        Note: Man pages can be obtained by installing pkg:/system/manual

 done.

        Done: Installation completed in 104.318 seconds.

  Next Steps: Boot the zone, then log into the zone console (zlogin -C)

              to complete the configuration process.

Log saved in non-global zone as /fc/root/var/log/zones/zoneadm.20130214T045957Z.fc.install
root@host:~# 

Après l'installation de la zone, le nouveau pool de stockage ZFS suivant est en ligne.

root@host:~# zpool list
NAME       SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
fc_rpool  39.8G   441M  39.3G   1%  1.00x  ONLINE  -

root@host:~# zpool status -v fc_rpool
  pool: fc_rpool
 state: ONLINE
  scan: none requested
config:

	NAME                                     STATE     READ WRITE CKSUM
	fc_rpool                                 ONLINE       0     0     0
	  c0t600144F0DBF8AF190000510979640005d0  ONLINE       0     0     0

L'installation de la zone est entièrement contenue dans ce pool de stockage ZFS. La zone possède l'organisation de jeu de données ZFS suivante.

root@host:~# zfs list -t all|grep fc
fc_rpool                                  440M  38.7G    32K  /fc
fc_rpool/rpool                            440M  38.7G    31K  /rpool
fc_rpool/rpool/ROOT                       440M  38.7G    31K  legacy
fc_rpool/rpool/ROOT/solaris               440M  38.7G   405M  /fc/root
fc_rpool/rpool/ROOT/solaris@install        67K      -   405M  -
fc_rpool/rpool/ROOT/solaris/var          34.3M  38.7G  33.6M  /fc/root/var
fc_rpool/rpool/ROOT/solaris/var@install   665K      -  33.6M  -
fc_rpool/rpool/VARSHARE                    31K  38.7G    31K  /var/share
fc_rpool/rpool/export                      62K  38.7G    31K  /export
fc_rpool/rpool/export/home                 31K  38.7G    31K  /export/home

La nouvelle zone hébergée sur le stockage partagé fourni à partir d'une cible Fibre Channel a été installée avec succès. Cette zone peut maintenant être initialisée à l'aide de la commande zoneadm boot.

Après l'initialisation de cette zone, l'administrateur de zone observe les jeux de données ZFS virtualisés et les pools de stockage depuis l'intérieur de la zone.

root@fc:~# zpool list
NAME    SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
rpool  39.8G   451M  39.3G   1%  1.00x  ONLINE  -

root@fc:~# zpool status -v
  pool: rpool
 state: ONLINE
  scan: none requested
config:

        NAME                                     STATE     READ WRITE CKSUM
        rpool                                    ONLINE       0     0     0
          c0t600144F0DBF8AF190000510979640005d0  ONLINE       0     0     0

root@fc:~# zfs list -t all
NAME                             USED  AVAIL  REFER  MOUNTPOINT
rpool                            467M  38.7G    31K  /rpool
rpool/ROOT                       467M  38.7G    31K  legacy
rpool/ROOT/solaris               467M  38.7G   430M  /
rpool/ROOT/solaris@install      1.90M      -   405M  -
rpool/ROOT/solaris/var          34.4M  38.7G  33.7M  /var
rpool/ROOT/solaris/var@install   703K      -  33.6M  -
rpool/VARSHARE                    39K  38.7G    39K  /var/share
rpool/export                    96.5K  38.7G    32K  /export
rpool/export/home               64.5K  38.7G    32K  /export/home
rpool/export/home/user          32.5K  38.7G  32.5K  /export/home/user