Creación y uso de zonas de Oracle® Solaris

Salir de la Vista de impresión

Actualización: Mayo de 2015
 
 

Escenarios de ejemplo

En esta sección, se proporcionan ejemplos para implementar Zonas de Oracle Solaris en recursos de almacenamiento compartido.

Ejemplo 14-6  Zonas de Oracle Solaris usando dispositivos de almacenamiento compartido basados en iSCSI

Este ejercicio configura una configuración de ejemplo en un servidor Oracle Solaris 11 que proporcionará almacenamiento compartido a través de un destino iSCSI. A continuación, configuraremos e instalaremos una zona en un segundo servidor que ejecuta Oracle Solaris, y utilizaremos esos recursos de almacenamiento compartido basados en iSCSI para alojar una zona.

En primer lugar, instalamos el paquete correspondiente, mediante uno de los siguientes comandos pkg install. El primer comando instala todo el paquete de grupos de servidor de almacenamiento de varios protocolos. El segundo comando instala únicamente la compatibilidad de destino para iSCSI dentro de la estructura de destino (COMSTAR) SCSI de varios protocolos comunes, como de describe en las páginas del comando man itadm(1M) y stmfadm(1M).

root@target:~# pkg install group/feature/storage-server
root@target:~# pkg install system/storage/iscsi/iscsi-target

A continuación, cree el almacén de copia de seguridad para los destinos de iSCSI que se van a exportar desde este servidor. Cree tres volúmenes ZFS como el almacén de copia de seguridad para las tres unidades lógicas de destino iSCSI, cada uno de 10 GB, almacenados en el juego de datos rpool/export del servidor de destino con el comando zfs.

root@target:~# zfs create -V 10G rpool/export/zonevol1
root@target:~# zfs create -V 10G rpool/export/zonevol2
root@target:~# zfs create -V 10G rpool/export/zonevol3

Después de configurar el almacén de copia de seguridad, utilice el comando stmfadm para crear unidades lógicas de destino para cada volumen ZFS. Esto nos proporcionará el ID de dispositivo (WWN) correspondiente para cada uno, que se utilizará más tarde en el URI de almacenamiento para la detección del destino iSCSI en el host cliente.

root@target:~# stmfadm create-lu  /dev/zvol/rdsk/rpool/export/zonevol1
Logical unit created: 600144F035FF8500000050C884E50001
root@target:~# stmfadm create-lu  /dev/zvol/rdsk/rpool/export/zonevol2
Logical unit created: 600144F035FF8500000050C884E80002
root@target:~# stmfadm create-lu  /dev/zvol/rdsk/rpool/export/zonevol3
Logical unit created: 600144F035FF8500000050C884EC0003

Puede ver unidades lógicas configuradas con la sintaxis stmfadm list-lu.

root@target:~# stmfadm list-lu
LU Name: 600144F035FF8500000050C884E50001
LU Name: 600144F035FF8500000050C884E80002
LU Name: 600144F035FF8500000050C884EC0003

Puede consultar para obtener más información sobre la configuración de unidades lógicas con la sintaxis stmfadm list-lu -v.

root@target:~# stmfadm list-lu -v
LU Name: 600144F035FF8500000050C884E50001
    Operational Status     : Online
    Provider Name          : sbd
    Alias                  : /dev/zvol/rdsk/rpool/export/zonevol1
    View Entry Count       : 0
    Data File              : /dev/zvol/rdsk/rpool/export/zonevol1
    Meta File              : not set
    Size                   : 10737418240
    Block Size             : 512
    Management URL         : not set
    Software ID            : not set
    Vendor ID              : SUN     
    Product ID             : COMSTAR         
    Serial Num             : not set
    Write Protect          : Disabled
    Write Cache Mode Select: Enabled
    Writeback Cache        : Enabled
    Access State           : Active

Para que la unidad lógica esté disponible para los iniciadores iSCSI, agregue una vista de unidad lógica al servidor de destino con el comando stmfadm add-view.

root@target:~# stmfadm add-view 600144F035FF8500000050C884E50001
root@target:~# stmfadm add-view 600144F035FF8500000050C884E80002
root@target:~# stmfadm add-view 600144F035FF8500000050C884EC0003

Ahora configuraremos el destino iSCSI en el servidor de destino. En primer lugar, active el servicio SMF de destino iSCSI con svcadm enable.

root@target:~# svcadm enable -r svc:/network/iscsi/target:default

Luego, crearemos el propio destino iSCSI con itadm create-target.

root@target:~# itadm create-target
Target iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a successfully created

Puede consultar los detalles sobre los destinos iSCSI configurados mediante itadm list-target o stmfadm list-target.

root@target:~# itadm list-target -v
TARGET NAME                                                  STATE    SESSIONS 
iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a  online   0        
        alias:                  -
        auth:                   none (defaults)
        targetchapuser:         -
        targetchapsecret:       unset
        tpg-tags:               default

root@target:~# stmfadm list-target -v
Target: iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a
    Operational Status     : Online
    Provider Name          : iscsit
    Alias                  : -
    Protocol               : iSCSI
    Sessions               : 0

El último paso consiste en utilizar suriadm(1M) para obtener el URI de almacenamiento correspondiente que se va a utilizar en la configuración de zona en el segundo servidor. Para cada unidad lógica, se creó una entrada de ruta del dispositivo local en /dev. El comando suriadm se utiliza para crear el URI de almacenamiento iSCSI.

root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884E50001d0
iscsi://target/luname.naa.600144f035ff8500000050c884e50001

root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884E80002d0
iscsi://target/luname.naa.600144f035ff8500000050c884e80002

root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884EC0003d0
iscsi://target/luname.naa.600144f035ff8500000050c884ec0003

Esto completa todas las tareas necesarias en el servidor de ejemplo que proporciona el almacenamiento de destino iSCSI.

Ahora podemos pasar a la configuración e instalación de una zona en un segundo servidor con este almacenamiento compartido proporcionado a través de iSCSI.

El primer paso es instalar el paquete correspondiente en el servidor cliente seleccionado para que sea el iniciador iSCSI.

root@initiator:~# pkg install pkg:/system/storage/iscsi/iscsi-initiator

A continuación, utilizamos el comando zonecfg para configurar una zona con una de un recurso rootzpool y un recurso zpool. Utilizaremos las tres unidades lógicas de destino iSCSI que configuramos como recursos de almacenamiento compartido para alojar la zona. Utilizaremos el URI de almacenamiento iSCSI que obtuvimos anteriormente con el comando suriadm, en el servidor de destino.

root@initiator:~# zonecfg -z iscsi 
Use 'create' to begin configuring a new zone.
zonecfg:iscsi> create
create: Using system default template 'SYSdefault'
zonecfg:iscsi> set zonepath=/iscsi
zonecfg:iscsi> add rootzpool
zonecfg:iscsi:rootzpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884E50001
zonecfg:iscsi:rootzpool> end
zonecfg:iscsi> add zpool
zonecfg:iscsi:zpool> set name=data
zonecfg:iscsi:zpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884E80002
zonecfg:iscsi:zpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884EC0003
zonecfg:iscsi:zpool> end
zonecfg:iscsi> commit
zonecfg:iscsi> exit

Ahora estamos listos para instalar la zona utilizando zoneadm install.

root@initiator:~# zoneadm -z iscsi install
Configured zone storage resource(s) from:
	iscsi://target/luname.naa.600144F035FF8500000050C884E50001
Created zone zpool: iscsi_rpool
Configured zone storage resource(s) from:
	iscsi://target/luname.naa.600144F035FF8500000050C884E80002
	iscsi://target/luname.naa.600144F035FF8500000050C884EC0003
Created zone zpool: iscsi_data
Progress being logged to /var/log/zones/zoneadm.20130125T112209Z.iscsi.install
       Image: Preparing at /iscsi/root.

 AI Manifest: /tmp/manifest.xml.pmai7h
  SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml
    Zonename: iscsi
Installation: Starting ...

              Creating IPS image
Startup linked: 1/1 done
              Installing packages from:
                  solaris
                      origin:  http://pkg.oracle.com/solaris/release/
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                            183/183   33556/33556  222.2/222.2  3.4M/s

PHASE                                          ITEMS
Installing new actions                   46825/46825
Updating package state database                 Done 
Updating image state                            Done 
Creating fast lookup database                   Done 
Installation: Succeeded

        Note: Man pages can be obtained by installing pkg:/system/manual

 done.

        Done: Installation completed in 266.487 seconds.

  Next Steps: Boot the zone, then log into the zone console (zlogin -C)

              to complete the configuration process.

Log saved in non-global zone as /iscsi/root/var/log/zones/zoneadm.20130125T112209Z.iscsi.install
root@initiator:~# 

Con la instalación de la zona completada, debemos verificar que haya instalado correctamente con zoneadm(1M) list.

root@initiator:~# zoneadm list -cp
0:global:running:/::solaris:shared:-:none
-:iscsi:installed:/iscsi:a0a4ba0d-9d6d-cf2c-cc42-f123a5e3ee11:solaris:excl:-:

Por último, podemos observar las nuevas agrupaciones de almacenamiento ZFS asociadas a esta zona con el comando zpool.

root@initiator:~# zpool list
NAME          SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
iscsi_data   9.94G  83.5K  9.94G   0%  1.00x  ONLINE  -
iscsi_rpool  9.94G   436M  9.51G   4%  1.00x  ONLINE  -

root@initiator:~# zpool status -v iscsi_rpool
  pool: iscsi_rpool
 state: ONLINE
  scan: none requested
config:

	NAME                                     STATE     READ WRITE CKSUM
	iscsi_rpool                              ONLINE       0     0     0
	  c0t600144F035FF8500000050C884E50001d0  ONLINE       0     0     0

root@initiator:~# zpool status -v iscsi_data
  pool: iscsi_data
 state: ONLINE
  scan: none requested
config:

	NAME                                       STATE     READ WRITE CKSUM
	iscsi_data                                 ONLINE       0     0     0
	  mirror-0                                 ONLINE       0     0     0
	    c0t600144F035FF8500000050C884E80002d0  ONLINE       0     0     0
	    c0t600144F035FF8500000050C884EC0003d0  ONLINE       0     0     0

La instalación de la zona estará contenida dentro de la agrupación de almacenamiento ZFS. A continuación se muestra el diseño del juego de datos ZFS.

root@initiator:~# zfs list -t all|grep iscsi
iscsi_data                                          83.5K  9.78G    31K  /iscsi_data
iscsi_rpool                                          436M  9.36G    32K  /iscsi
iscsi_rpool/rpool                                    436M  9.36G    31K  /rpool
iscsi_rpool/rpool/ROOT                               436M  9.36G    31K  legacy
iscsi_rpool/rpool/ROOT/solaris                       436M  9.36G   390M  /iscsi/root
iscsi_rpool/rpool/ROOT/solaris@install                64K      -   390M  -
iscsi_rpool/rpool/ROOT/solaris/var                  46.1M  9.36G  45.4M  /iscsi/root/var
iscsi_rpool/rpool/ROOT/solaris/var@install           644K      -  45.4M  -
iscsi_rpool/rpool/VARSHARE                            31K  9.36G    31K  /var/share
iscsi_rpool/rpool/export                              62K  9.36G    31K  /export
iscsi_rpool/rpool/export/home                         31K  9.36G    31K  /export/home

La nueva zona alojada en recursos de almacenamiento compartido basados en iSCSI se instaló correctamente y ahora se puede iniciar con zoneadm(1M) boot.

Una vez iniciada la zona, el administrador de zona observa los juegos de datos ZFS y las agrupaciones de almacenamiento desde la zona.

root@iscsi:~# zpool list
NAME    SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
data   9.94G    85K  9.94G   0%  1.00x  ONLINE  -
rpool  9.94G   449M  9.50G   4%  1.00x  ONLINE  -

root@iscsi:~# zpool status -v
  pool: data
 state: ONLINE
  scan: none requested
config:

        NAME                                       STATE     READ WRITE CKSUM
        data                                       ONLINE       0     0     0
          mirror-0                                 ONLINE       0     0     0
            c0t600144F035FF8500000050C884E80002d0  ONLINE       0     0     0
            c0t600144F035FF8500000050C884EC0003d0  ONLINE       0     0     0

  pool: rpool
 state: ONLINE
  scan: none requested
config:

        NAME                                     STATE     READ WRITE CKSUM
        rpool                                    ONLINE       0     0     0
          c0t600144F035FF8500000050C884E50001d0  ONLINE       0     0     0

root@iscsi:~# zfs list -t all
NAME                             USED  AVAIL  REFER  MOUNTPOINT
data                              85K  9.78G    31K  /data
rpool                            464M  9.33G    31K  /rpool
rpool/ROOT                       464M  9.33G    31K  legacy
rpool/ROOT/solaris               464M  9.33G   416M  /
rpool/ROOT/solaris@install      1.83M      -   390M  -
rpool/ROOT/solaris/var          46.2M  9.33G  45.6M  /var
rpool/ROOT/solaris/var@install   674K      -  45.4M  -
rpool/VARSHARE                    39K  9.33G    39K  /var/share
rpool/export                    96.5K  9.33G    32K  /export
rpool/export/home               64.5K  9.33G    32K  /export/home
rpool/export/home/user          32.5K  9.33G  32.5K  /export/home/user
Ejemplo 14-7  Ejemplo de Zonas de Oracle Solaris usando dispositivos de almacenamiento DAS

Este ejercicio utiliza conexión directa a dispositivos de almacenamiento locales para configurar e instalar una zona en Oracle Solaris. Tenga en cuenta que este método normalmente no se puede transportar entre hosts diferentes.

En primer lugar, detecte los discos locales disponibles con el comando format y utilice suriadm lookup-uri para crear el URI de almacenamiento que se va a utilizar dentro de la configuración de la zona.

root@host:~# format
Searching for disks...done
AVAILABLE DISK SELECTIONS:
       1. c4t1d0 <SEAGATE-ST336704LSUN36G-0326-33.92GB>
          /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@1,0
       2. c4t2d0 <FUJITSU-MAT3073NC-0104-68.49GB>
          /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@2,0
       3. c4t3d0 <SEAGATE-ST336704LSUN36G-0326-33.92GB>
          /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@3,0
       4. c4t4d0 <FUJITSU-MAW3073NC-0103-68.49GB>
          /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@4,0

root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t1d0
dev:dsk/c4t1d0
root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t2d0
dev:dsk/c4t2d0
root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t3d0
dev:dsk/c4t3d0
root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t4d0
dev:dsk/c4t4d0

Con esos URI de almacenamiento, configuramos una zona con un recurso rootzpool y un recurso zpool, ambos representando agrupaciones de almacenamiento ZFS reflejadas.

root@host:~# zonecfg -z disk 
Use 'create' to begin configuring a new zone.
zonecfg:disk> create
create: Using system default template 'SYSdefault'
zonecfg:disk> set zonepath=/disk
zonecfg:disk> add rootzpool
zonecfg:disk:rootzpool> add storage dev:dsk/c4t1d0
zonecfg:disk:rootzpool> add storage dev:dsk/c4t3d0
zonecfg:disk:rootzpool> end
zonecfg:disk> add zpool
zonecfg:disk:zpool> set name=dpool
zonecfg:disk:zpool> add storage dev:dsk/c4t2d0
zonecfg:disk:zpool> add storage dev:dsk/c4t4d0
zonecfg:disk:zpool> end
zonecfg:disk> commit
zonecfg:disk> exit

Ahora instalamos la zona.

root@host:~# zoneadm -z disk install
Created zone zpool: disk_rpool
Created zone zpool: disk_dpool
Progress being logged to /var/log/zones/zoneadm.20130213T132236Z.disk.install
       Image: Preparing at /disk/root.

 AI Manifest: /tmp/manifest.xml.rOaOhe
  SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml
    Zonename: disk
Installation: Starting ...

              Creating IPS image
Startup linked: 1/1 done
              Installing packages from:
                  solaris
                      origin:  http://pkg.oracle.com/solaris/release/
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                            183/183   33556/33556  222.2/222.2  2.0M/s

PHASE                                          ITEMS
Installing new actions                   46825/46825
Updating package state database                 Done 
Updating image state                            Done 
Creating fast lookup database                   Done 
Installation: Succeeded

        Note: Man pages can be obtained by installing pkg:/system/manual

 done.

        Done: Installation completed in 308.358 seconds.

  Next Steps: Boot the zone, then log into the zone console (zlogin -C)

              to complete the configuration process.

Log saved in non-global zone as /disk/root/var/log/zones/zoneadm.20130213T132236Z.disk.install
root@host:~# 

Después de la instalación de la zona, las siguientes dos nuevas agrupaciones de almacenamiento estarán en línea.

root@host:/# zpool list
NAME         SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
disk_dpool    68G  83.5K  68.0G   0%  1.00x  ONLINE  -
disk_rpool  33.8G   434M  33.3G   1%  1.00x  ONLINE  -

root@host:/# zpool status -v disk_rpool
  pool: disk_rpool
 state: ONLINE
  scan: none requested
config:

	NAME        STATE     READ WRITE CKSUM
	disk_rpool  ONLINE       0     0     0
	  mirror-0  ONLINE       0     0     0
	    c4t1d0  ONLINE       0     0     0
	    c4t3d0  ONLINE       0     0     0

root@host:/# zpool status -v disk_dpool
  pool: disk_dpool
 state: ONLINE
  scan: none requested
config:

	NAME        STATE     READ WRITE CKSUM
	disk_dpool  ONLINE       0     0     0
	  mirror-0  ONLINE       0     0     0
	    c4t2d0  ONLINE       0     0     0
	    c4t4d0  ONLINE       0     0     0

La instalación de la zona estará contenida dentro de la agrupación de almacenamiento ZFS. El siguiente juego de datos ZFS para esta zona estará presente.

root@host:~# zfs list -t all|grep disk
disk_dpool                                           83.5K  66.9G    31K  /disk_dpool
disk_rpool                                            434M  32.8G    32K  /disk
disk_rpool/rpool                                      433M  32.8G    31K  /rpool
disk_rpool/rpool/ROOT                                 433M  32.8G    31K  legacy
disk_rpool/rpool/ROOT/solaris                         433M  32.8G   389M  /disk/root
disk_rpool/rpool/ROOT/solaris@install                  63K      -   389M  -
disk_rpool/rpool/ROOT/solaris/var                    43.8M  32.8G  43.2M  /disk/root/var
disk_rpool/rpool/ROOT/solaris/var@install             584K      -  43.2M  -
disk_rpool/rpool/VARSHARE                              31K  32.8G    31K  /var/share
disk_rpool/rpool/export                                62K  32.8G    31K  /export
disk_rpool/rpool/export/home                           31K  32.8G    31K  /export/home

La nueva zona alojada en los recursos de almacenamiento del dispositivo local se instaló correctamente y ahora se puede iniciar mediante el comando zoneadm boot.

Una vez iniciada la zona, el administrador de zona observa los juegos de datos ZFS y las agrupaciones de almacenamiento desde adentro de la zona.

root@disk:~# zpool list
NAME    SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
dpool    68G  83.5K  68.0G   0%  1.00x  ONLINE  -
rpool  33.8G   472M  33.3G   1%  1.00x  ONLINE  -

root@disk:~# zpool status -v
  pool: dpool
 state: ONLINE
  scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        dpool       ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            c4t2d0  ONLINE       0     0     0
            c4t4d0  ONLINE       0     0     0

  pool: rpool
 state: ONLINE
  scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        rpool       ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            c4t1d0  ONLINE       0     0     0
            c4t3d0  ONLINE       0     0     0

root@disk:~# zfs list -t all
NAME                             USED  AVAIL  REFER  MOUNTPOINT
dpool                           83.5K  66.9G    31K  /dpool
rpool                            465M  32.8G    31K  /rpool
rpool/ROOT                       465M  32.8G    31K  legacy
rpool/ROOT/solaris               465M  32.8G   416M  /
rpool/ROOT/solaris@install      5.60M      -   389M  -
rpool/ROOT/solaris/var          43.9M  32.8G  43.3M  /var
rpool/ROOT/solaris/var@install   618K      -  43.2M  -
rpool/VARSHARE                    39K  32.8G    39K  /var/share
rpool/export                    96.5K  32.8G    32K  /export
rpool/export/home               64.5K  32.8G    32K  /export/home
rpool/export/home/user          32.5K  32.8G  32.5K  /export/home/user
Ejemplo 14-8  Zonas de Oracle Solaris usando dispositivos de almacenamiento basados en canal de fibra

Este ejercicio utiliza un dispositivo de almacenamiento compartido proporcionado mediante canal de fibra para configurar e instalar una zona en Oracle Solaris.

Primero, detecte las unidades lógicas del canal de fibra visibles actualmente para nuestro host mediante el comando fcinfo lu.

root@host:~# fcinfo lu -v
OS Device Name: /dev/rdsk/c0t600144F0DBF8AF190000510979640005d0s2
        HBA Port WWN: 10000000c9991d8c
                Remote Port WWN: 21000024ff3ee89f
                        LUN: 5
        Vendor: SUN     
        Product: ZFS Storage 7120
        Device Type: Disk Device

Utilice suriadm lookup-uri para construir un URI de almacenamiento basado en la ruta del dispositivo. Elimine la parte del nombre del dispositivo para que la consulta recupere un URI de almacenamiento que representa toda una unidad lógica.

root@host:~# suriadm lookup-uri /dev/dsk/c0t600144F0DBF8AF190000510979640005d0
lu:luname.naa.600144f0dbf8af190000510979640005
lu:initiator.naa.10000000c9991d8c,target.naa.21000024ff3ee89f,luname.naa.600144f0dbf8af190000510979640005
dev:dsk/c0t600144F0DBF8AF190000510979640005d0

Desde los tres URI que se muestran, seleccionamos el formato de sólo luname del URI de almacenamiento de unidad lógica para utilizarlo en la configuración de zonas.

root@host:~# zonecfg -z fc
Use 'create' to begin configuring a new zone.
zonecfg:fc> create
create: Using system default template 'SYSdefault'
zonecfg:fc> set zonepath=/fc
zonecfg:fc> add rootzpool
zonecfg:fc:rootzpool> add storage lu:luname.naa.600144f0dbf8af190000510979640005
zonecfg:fc:rootzpool> end
zonecfg:fc> commit
zonecfg:fc> exit

Ahora estamos listos para instalar la zona.

root@host:~# zoneadm -z fc install
Created zone zpool: fc_rpool
Progress being logged to /var/log/zones/zoneadm.20130214T045957Z.fc.install
       Image: Preparing at /fc/root.

AI Manifest: /tmp/manifest.xml.K9aaow
SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml
  Zonename: fc
Installation: Starting ...

            Creating IPS image
Startup linked: 1/1 done
            Installing packages from:
                solaris
                    origin:   http://pkg.oracle.com/solaris/release/
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                            190/190   34246/34246  231.3/231.3  7.2M/s

PHASE                                          ITEMS
Installing new actions                   48231/48231
Updating package state database                 Done 
Updating image state                            Done 
Creating fast lookup database                   Done 
Installation: Succeeded

        Note: Man pages can be obtained by installing pkg:/system/manual

 done.

        Done: Installation completed in 104.318 seconds.

  Next Steps: Boot the zone, then log into the zone console (zlogin -C)

              to complete the configuration process.

Log saved in non-global zone as /fc/root/var/log/zones/zoneadm.20130214T045957Z.fc.install
root@host:~# 

Después de la instalación de la zona, las siguiente agrupación de almacenamiento nueva estará en línea.

root@host:~# zpool list
NAME       SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
fc_rpool  39.8G   441M  39.3G   1%  1.00x  ONLINE  -

root@host:~# zpool status -v fc_rpool
  pool: fc_rpool
 state: ONLINE
  scan: none requested
config:

	NAME                                     STATE     READ WRITE CKSUM
	fc_rpool                                 ONLINE       0     0     0
	  c0t600144F0DBF8AF190000510979640005d0  ONLINE       0     0     0

La instalación de la zona estará contenida dentro de la agrupación de almacenamiento ZFS. La zona tiene el siguiente diseño de juego de datos ZFS.

root@host:~# zfs list -t all|grep fc
fc_rpool                                  440M  38.7G    32K  /fc
fc_rpool/rpool                            440M  38.7G    31K  /rpool
fc_rpool/rpool/ROOT                       440M  38.7G    31K  legacy
fc_rpool/rpool/ROOT/solaris               440M  38.7G   405M  /fc/root
fc_rpool/rpool/ROOT/solaris@install        67K      -   405M  -
fc_rpool/rpool/ROOT/solaris/var          34.3M  38.7G  33.6M  /fc/root/var
fc_rpool/rpool/ROOT/solaris/var@install   665K      -  33.6M  -
fc_rpool/rpool/VARSHARE                    31K  38.7G    31K  /var/share
fc_rpool/rpool/export                      62K  38.7G    31K  /export
fc_rpool/rpool/export/home                 31K  38.7G    31K  /export/home

La nueva zona alojada en almacenamiento compartido proporcionado de un destino de canal de fibra se instaló correctamente. Esta zona ahora se puede iniciar con zoneadm boot.

Una vez iniciada la zona, el administrador de zona observa los juegos de datos ZFS y las agrupaciones de almacenamiento desde adentro de la zona.

root@fc:~# zpool list
NAME    SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
rpool  39.8G   451M  39.3G   1%  1.00x  ONLINE  -

root@fc:~# zpool status -v
  pool: rpool
 state: ONLINE
  scan: none requested
config:

        NAME                                     STATE     READ WRITE CKSUM
        rpool                                    ONLINE       0     0     0
          c0t600144F0DBF8AF190000510979640005d0  ONLINE       0     0     0

root@fc:~# zfs list -t all
NAME                             USED  AVAIL  REFER  MOUNTPOINT
rpool                            467M  38.7G    31K  /rpool
rpool/ROOT                       467M  38.7G    31K  legacy
rpool/ROOT/solaris               467M  38.7G   430M  /
rpool/ROOT/solaris@install      1.90M      -   405M  -
rpool/ROOT/solaris/var          34.4M  38.7G  33.7M  /var
rpool/ROOT/solaris/var@install   703K      -  33.6M  -
rpool/VARSHARE                    39K  38.7G    39K  /var/share
rpool/export                    96.5K  38.7G    32K  /export
rpool/export/home               64.5K  38.7G    32K  /export/home
rpool/export/home/user          32.5K  38.7G  32.5K  /export/home/user