En esta sección, se proporcionan ejemplos para implementar Zonas de Oracle Solaris en recursos de almacenamiento compartido.
Ejemplo 14-6 Zonas de Oracle Solaris usando dispositivos de almacenamiento compartido basados en iSCSIEste ejercicio configura una configuración de ejemplo en un servidor Oracle Solaris 11 que proporcionará almacenamiento compartido a través de un destino iSCSI. A continuación, configuraremos e instalaremos una zona en un segundo servidor que ejecuta Oracle Solaris, y utilizaremos esos recursos de almacenamiento compartido basados en iSCSI para alojar una zona.
En primer lugar, instalamos el paquete correspondiente, mediante uno de los siguientes comandos pkg install. El primer comando instala todo el paquete de grupos de servidor de almacenamiento de varios protocolos. El segundo comando instala únicamente la compatibilidad de destino para iSCSI dentro de la estructura de destino (COMSTAR) SCSI de varios protocolos comunes, como de describe en las páginas del comando man itadm(1M) y stmfadm(1M).
root@target:~# pkg install group/feature/storage-server root@target:~# pkg install system/storage/iscsi/iscsi-target
A continuación, cree el almacén de copia de seguridad para los destinos de iSCSI que se van a exportar desde este servidor. Cree tres volúmenes ZFS como el almacén de copia de seguridad para las tres unidades lógicas de destino iSCSI, cada uno de 10 GB, almacenados en el juego de datos rpool/export del servidor de destino con el comando zfs.
root@target:~# zfs create -V 10G rpool/export/zonevol1 root@target:~# zfs create -V 10G rpool/export/zonevol2 root@target:~# zfs create -V 10G rpool/export/zonevol3
Después de configurar el almacén de copia de seguridad, utilice el comando stmfadm para crear unidades lógicas de destino para cada volumen ZFS. Esto nos proporcionará el ID de dispositivo (WWN) correspondiente para cada uno, que se utilizará más tarde en el URI de almacenamiento para la detección del destino iSCSI en el host cliente.
root@target:~# stmfadm create-lu /dev/zvol/rdsk/rpool/export/zonevol1 Logical unit created: 600144F035FF8500000050C884E50001 root@target:~# stmfadm create-lu /dev/zvol/rdsk/rpool/export/zonevol2 Logical unit created: 600144F035FF8500000050C884E80002 root@target:~# stmfadm create-lu /dev/zvol/rdsk/rpool/export/zonevol3 Logical unit created: 600144F035FF8500000050C884EC0003
Puede ver unidades lógicas configuradas con la sintaxis stmfadm list-lu.
root@target:~# stmfadm list-lu LU Name: 600144F035FF8500000050C884E50001 LU Name: 600144F035FF8500000050C884E80002 LU Name: 600144F035FF8500000050C884EC0003
Puede consultar para obtener más información sobre la configuración de unidades lógicas con la sintaxis stmfadm list-lu -v.
root@target:~# stmfadm list-lu -v LU Name: 600144F035FF8500000050C884E50001 Operational Status : Online Provider Name : sbd Alias : /dev/zvol/rdsk/rpool/export/zonevol1 View Entry Count : 0 Data File : /dev/zvol/rdsk/rpool/export/zonevol1 Meta File : not set Size : 10737418240 Block Size : 512 Management URL : not set Software ID : not set Vendor ID : SUN Product ID : COMSTAR Serial Num : not set Write Protect : Disabled Write Cache Mode Select: Enabled Writeback Cache : Enabled Access State : Active
Para que la unidad lógica esté disponible para los iniciadores iSCSI, agregue una vista de unidad lógica al servidor de destino con el comando stmfadm add-view.
root@target:~# stmfadm add-view 600144F035FF8500000050C884E50001 root@target:~# stmfadm add-view 600144F035FF8500000050C884E80002 root@target:~# stmfadm add-view 600144F035FF8500000050C884EC0003
Ahora configuraremos el destino iSCSI en el servidor de destino. En primer lugar, active el servicio SMF de destino iSCSI con svcadm enable.
root@target:~# svcadm enable -r svc:/network/iscsi/target:default
Luego, crearemos el propio destino iSCSI con itadm create-target.
root@target:~# itadm create-target Target iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a successfully created
Puede consultar los detalles sobre los destinos iSCSI configurados mediante itadm list-target o stmfadm list-target.
root@target:~# itadm list-target -v TARGET NAME STATE SESSIONS iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a online 0 alias: - auth: none (defaults) targetchapuser: - targetchapsecret: unset tpg-tags: default root@target:~# stmfadm list-target -v Target: iqn.1986-03.com.sun:02:b62a8291-b89e-41ba-9aef-e93836ad0d6a Operational Status : Online Provider Name : iscsit Alias : - Protocol : iSCSI Sessions : 0
El último paso consiste en utilizar suriadm(1M) para obtener el URI de almacenamiento correspondiente que se va a utilizar en la configuración de zona en el segundo servidor. Para cada unidad lógica, se creó una entrada de ruta del dispositivo local en /dev. El comando suriadm se utiliza para crear el URI de almacenamiento iSCSI.
root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884E50001d0 iscsi://target/luname.naa.600144f035ff8500000050c884e50001 root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884E80002d0 iscsi://target/luname.naa.600144f035ff8500000050c884e80002 root@target:~# suriadm lookup-uri -t iscsi /dev/dsk/c0t600144F035FF8500000050C884EC0003d0 iscsi://target/luname.naa.600144f035ff8500000050c884ec0003
Esto completa todas las tareas necesarias en el servidor de ejemplo que proporciona el almacenamiento de destino iSCSI.
Ahora podemos pasar a la configuración e instalación de una zona en un segundo servidor con este almacenamiento compartido proporcionado a través de iSCSI.
El primer paso es instalar el paquete correspondiente en el servidor cliente seleccionado para que sea el iniciador iSCSI.
root@initiator:~# pkg install pkg:/system/storage/iscsi/iscsi-initiator
A continuación, utilizamos el comando zonecfg para configurar una zona con una de un recurso rootzpool y un recurso zpool. Utilizaremos las tres unidades lógicas de destino iSCSI que configuramos como recursos de almacenamiento compartido para alojar la zona. Utilizaremos el URI de almacenamiento iSCSI que obtuvimos anteriormente con el comando suriadm, en el servidor de destino.
root@initiator:~# zonecfg -z iscsi Use 'create' to begin configuring a new zone. zonecfg:iscsi> create create: Using system default template 'SYSdefault' zonecfg:iscsi> set zonepath=/iscsi zonecfg:iscsi> add rootzpool zonecfg:iscsi:rootzpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884E50001 zonecfg:iscsi:rootzpool> end zonecfg:iscsi> add zpool zonecfg:iscsi:zpool> set name=data zonecfg:iscsi:zpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884E80002 zonecfg:iscsi:zpool> add storage iscsi://target/luname.naa.600144F035FF8500000050C884EC0003 zonecfg:iscsi:zpool> end zonecfg:iscsi> commit zonecfg:iscsi> exit
Ahora estamos listos para instalar la zona utilizando zoneadm install.
root@initiator:~# zoneadm -z iscsi install Configured zone storage resource(s) from: iscsi://target/luname.naa.600144F035FF8500000050C884E50001 Created zone zpool: iscsi_rpool Configured zone storage resource(s) from: iscsi://target/luname.naa.600144F035FF8500000050C884E80002 iscsi://target/luname.naa.600144F035FF8500000050C884EC0003 Created zone zpool: iscsi_data Progress being logged to /var/log/zones/zoneadm.20130125T112209Z.iscsi.install Image: Preparing at /iscsi/root. AI Manifest: /tmp/manifest.xml.pmai7h SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml Zonename: iscsi Installation: Starting ... Creating IPS image Startup linked: 1/1 done Installing packages from: solaris origin: http://pkg.oracle.com/solaris/release/ DOWNLOAD PKGS FILES XFER (MB) SPEED Completed 183/183 33556/33556 222.2/222.2 3.4M/s PHASE ITEMS Installing new actions 46825/46825 Updating package state database Done Updating image state Done Creating fast lookup database Done Installation: Succeeded Note: Man pages can be obtained by installing pkg:/system/manual done. Done: Installation completed in 266.487 seconds. Next Steps: Boot the zone, then log into the zone console (zlogin -C) to complete the configuration process. Log saved in non-global zone as /iscsi/root/var/log/zones/zoneadm.20130125T112209Z.iscsi.install root@initiator:~#
Con la instalación de la zona completada, debemos verificar que haya instalado correctamente con zoneadm(1M) list.
root@initiator:~# zoneadm list -cp 0:global:running:/::solaris:shared:-:none -:iscsi:installed:/iscsi:a0a4ba0d-9d6d-cf2c-cc42-f123a5e3ee11:solaris:excl:-:
Por último, podemos observar las nuevas agrupaciones de almacenamiento ZFS asociadas a esta zona con el comando zpool.
root@initiator:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT iscsi_data 9.94G 83.5K 9.94G 0% 1.00x ONLINE - iscsi_rpool 9.94G 436M 9.51G 4% 1.00x ONLINE - root@initiator:~# zpool status -v iscsi_rpool pool: iscsi_rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM iscsi_rpool ONLINE 0 0 0 c0t600144F035FF8500000050C884E50001d0 ONLINE 0 0 0 root@initiator:~# zpool status -v iscsi_data pool: iscsi_data state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM iscsi_data ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c0t600144F035FF8500000050C884E80002d0 ONLINE 0 0 0 c0t600144F035FF8500000050C884EC0003d0 ONLINE 0 0 0
La instalación de la zona estará contenida dentro de la agrupación de almacenamiento ZFS. A continuación se muestra el diseño del juego de datos ZFS.
root@initiator:~# zfs list -t all|grep iscsi iscsi_data 83.5K 9.78G 31K /iscsi_data iscsi_rpool 436M 9.36G 32K /iscsi iscsi_rpool/rpool 436M 9.36G 31K /rpool iscsi_rpool/rpool/ROOT 436M 9.36G 31K legacy iscsi_rpool/rpool/ROOT/solaris 436M 9.36G 390M /iscsi/root iscsi_rpool/rpool/ROOT/solaris@install 64K - 390M - iscsi_rpool/rpool/ROOT/solaris/var 46.1M 9.36G 45.4M /iscsi/root/var iscsi_rpool/rpool/ROOT/solaris/var@install 644K - 45.4M - iscsi_rpool/rpool/VARSHARE 31K 9.36G 31K /var/share iscsi_rpool/rpool/export 62K 9.36G 31K /export iscsi_rpool/rpool/export/home 31K 9.36G 31K /export/home
La nueva zona alojada en recursos de almacenamiento compartido basados en iSCSI se instaló correctamente y ahora se puede iniciar con zoneadm(1M) boot.
Una vez iniciada la zona, el administrador de zona observa los juegos de datos ZFS y las agrupaciones de almacenamiento desde la zona.
root@iscsi:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT data 9.94G 85K 9.94G 0% 1.00x ONLINE - rpool 9.94G 449M 9.50G 4% 1.00x ONLINE - root@iscsi:~# zpool status -v pool: data state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM data ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c0t600144F035FF8500000050C884E80002d0 ONLINE 0 0 0 c0t600144F035FF8500000050C884EC0003d0 ONLINE 0 0 0 pool: rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 c0t600144F035FF8500000050C884E50001d0 ONLINE 0 0 0 root@iscsi:~# zfs list -t all NAME USED AVAIL REFER MOUNTPOINT data 85K 9.78G 31K /data rpool 464M 9.33G 31K /rpool rpool/ROOT 464M 9.33G 31K legacy rpool/ROOT/solaris 464M 9.33G 416M / rpool/ROOT/solaris@install 1.83M - 390M - rpool/ROOT/solaris/var 46.2M 9.33G 45.6M /var rpool/ROOT/solaris/var@install 674K - 45.4M - rpool/VARSHARE 39K 9.33G 39K /var/share rpool/export 96.5K 9.33G 32K /export rpool/export/home 64.5K 9.33G 32K /export/home rpool/export/home/user 32.5K 9.33G 32.5K /export/home/userEjemplo 14-7 Ejemplo de Zonas de Oracle Solaris usando dispositivos de almacenamiento DAS
Este ejercicio utiliza conexión directa a dispositivos de almacenamiento locales para configurar e instalar una zona en Oracle Solaris. Tenga en cuenta que este método normalmente no se puede transportar entre hosts diferentes.
En primer lugar, detecte los discos locales disponibles con el comando format y utilice suriadm lookup-uri para crear el URI de almacenamiento que se va a utilizar dentro de la configuración de la zona.
root@host:~# format Searching for disks...done AVAILABLE DISK SELECTIONS: 1. c4t1d0 <SEAGATE-ST336704LSUN36G-0326-33.92GB> /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@1,0 2. c4t2d0 <FUJITSU-MAT3073NC-0104-68.49GB> /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@2,0 3. c4t3d0 <SEAGATE-ST336704LSUN36G-0326-33.92GB> /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@3,0 4. c4t4d0 <FUJITSU-MAW3073NC-0103-68.49GB> /pci@0,0/pci1022,7450@a/pci17c2,20@4/sd@4,0 root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t1d0 dev:dsk/c4t1d0 root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t2d0 dev:dsk/c4t2d0 root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t3d0 dev:dsk/c4t3d0 root@host:~# suriadm lookup-uri -t dev /dev/dsk/c4t4d0 dev:dsk/c4t4d0
Con esos URI de almacenamiento, configuramos una zona con un recurso rootzpool y un recurso zpool, ambos representando agrupaciones de almacenamiento ZFS reflejadas.
root@host:~# zonecfg -z disk Use 'create' to begin configuring a new zone. zonecfg:disk> create create: Using system default template 'SYSdefault' zonecfg:disk> set zonepath=/disk zonecfg:disk> add rootzpool zonecfg:disk:rootzpool> add storage dev:dsk/c4t1d0 zonecfg:disk:rootzpool> add storage dev:dsk/c4t3d0 zonecfg:disk:rootzpool> end zonecfg:disk> add zpool zonecfg:disk:zpool> set name=dpool zonecfg:disk:zpool> add storage dev:dsk/c4t2d0 zonecfg:disk:zpool> add storage dev:dsk/c4t4d0 zonecfg:disk:zpool> end zonecfg:disk> commit zonecfg:disk> exit
Ahora instalamos la zona.
root@host:~# zoneadm -z disk install Created zone zpool: disk_rpool Created zone zpool: disk_dpool Progress being logged to /var/log/zones/zoneadm.20130213T132236Z.disk.install Image: Preparing at /disk/root. AI Manifest: /tmp/manifest.xml.rOaOhe SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml Zonename: disk Installation: Starting ... Creating IPS image Startup linked: 1/1 done Installing packages from: solaris origin: http://pkg.oracle.com/solaris/release/ DOWNLOAD PKGS FILES XFER (MB) SPEED Completed 183/183 33556/33556 222.2/222.2 2.0M/s PHASE ITEMS Installing new actions 46825/46825 Updating package state database Done Updating image state Done Creating fast lookup database Done Installation: Succeeded Note: Man pages can be obtained by installing pkg:/system/manual done. Done: Installation completed in 308.358 seconds. Next Steps: Boot the zone, then log into the zone console (zlogin -C) to complete the configuration process. Log saved in non-global zone as /disk/root/var/log/zones/zoneadm.20130213T132236Z.disk.install root@host:~#
Después de la instalación de la zona, las siguientes dos nuevas agrupaciones de almacenamiento estarán en línea.
root@host:/# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT disk_dpool 68G 83.5K 68.0G 0% 1.00x ONLINE - disk_rpool 33.8G 434M 33.3G 1% 1.00x ONLINE - root@host:/# zpool status -v disk_rpool pool: disk_rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM disk_rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c4t1d0 ONLINE 0 0 0 c4t3d0 ONLINE 0 0 0 root@host:/# zpool status -v disk_dpool pool: disk_dpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM disk_dpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c4t2d0 ONLINE 0 0 0 c4t4d0 ONLINE 0 0 0
La instalación de la zona estará contenida dentro de la agrupación de almacenamiento ZFS. El siguiente juego de datos ZFS para esta zona estará presente.
root@host:~# zfs list -t all|grep disk disk_dpool 83.5K 66.9G 31K /disk_dpool disk_rpool 434M 32.8G 32K /disk disk_rpool/rpool 433M 32.8G 31K /rpool disk_rpool/rpool/ROOT 433M 32.8G 31K legacy disk_rpool/rpool/ROOT/solaris 433M 32.8G 389M /disk/root disk_rpool/rpool/ROOT/solaris@install 63K - 389M - disk_rpool/rpool/ROOT/solaris/var 43.8M 32.8G 43.2M /disk/root/var disk_rpool/rpool/ROOT/solaris/var@install 584K - 43.2M - disk_rpool/rpool/VARSHARE 31K 32.8G 31K /var/share disk_rpool/rpool/export 62K 32.8G 31K /export disk_rpool/rpool/export/home 31K 32.8G 31K /export/home
La nueva zona alojada en los recursos de almacenamiento del dispositivo local se instaló correctamente y ahora se puede iniciar mediante el comando zoneadm boot.
Una vez iniciada la zona, el administrador de zona observa los juegos de datos ZFS y las agrupaciones de almacenamiento desde adentro de la zona.
root@disk:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT dpool 68G 83.5K 68.0G 0% 1.00x ONLINE - rpool 33.8G 472M 33.3G 1% 1.00x ONLINE - root@disk:~# zpool status -v pool: dpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM dpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c4t2d0 ONLINE 0 0 0 c4t4d0 ONLINE 0 0 0 pool: rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c4t1d0 ONLINE 0 0 0 c4t3d0 ONLINE 0 0 0 root@disk:~# zfs list -t all NAME USED AVAIL REFER MOUNTPOINT dpool 83.5K 66.9G 31K /dpool rpool 465M 32.8G 31K /rpool rpool/ROOT 465M 32.8G 31K legacy rpool/ROOT/solaris 465M 32.8G 416M / rpool/ROOT/solaris@install 5.60M - 389M - rpool/ROOT/solaris/var 43.9M 32.8G 43.3M /var rpool/ROOT/solaris/var@install 618K - 43.2M - rpool/VARSHARE 39K 32.8G 39K /var/share rpool/export 96.5K 32.8G 32K /export rpool/export/home 64.5K 32.8G 32K /export/home rpool/export/home/user 32.5K 32.8G 32.5K /export/home/userEjemplo 14-8 Zonas de Oracle Solaris usando dispositivos de almacenamiento basados en canal de fibra
Este ejercicio utiliza un dispositivo de almacenamiento compartido proporcionado mediante canal de fibra para configurar e instalar una zona en Oracle Solaris.
Primero, detecte las unidades lógicas del canal de fibra visibles actualmente para nuestro host mediante el comando fcinfo lu.
root@host:~# fcinfo lu -v OS Device Name: /dev/rdsk/c0t600144F0DBF8AF190000510979640005d0s2 HBA Port WWN: 10000000c9991d8c Remote Port WWN: 21000024ff3ee89f LUN: 5 Vendor: SUN Product: ZFS Storage 7120 Device Type: Disk Device
Utilice suriadm lookup-uri para construir un URI de almacenamiento basado en la ruta del dispositivo. Elimine la parte del nombre del dispositivo para que la consulta recupere un URI de almacenamiento que representa toda una unidad lógica.
root@host:~# suriadm lookup-uri /dev/dsk/c0t600144F0DBF8AF190000510979640005d0 lu:luname.naa.600144f0dbf8af190000510979640005 lu:initiator.naa.10000000c9991d8c,target.naa.21000024ff3ee89f,luname.naa.600144f0dbf8af190000510979640005 dev:dsk/c0t600144F0DBF8AF190000510979640005d0
Desde los tres URI que se muestran, seleccionamos el formato de sólo luname del URI de almacenamiento de unidad lógica para utilizarlo en la configuración de zonas.
root@host:~# zonecfg -z fc Use 'create' to begin configuring a new zone. zonecfg:fc> create create: Using system default template 'SYSdefault' zonecfg:fc> set zonepath=/fc zonecfg:fc> add rootzpool zonecfg:fc:rootzpool> add storage lu:luname.naa.600144f0dbf8af190000510979640005 zonecfg:fc:rootzpool> end zonecfg:fc> commit zonecfg:fc> exit
Ahora estamos listos para instalar la zona.
root@host:~# zoneadm -z fc install Created zone zpool: fc_rpool Progress being logged to /var/log/zones/zoneadm.20130214T045957Z.fc.install Image: Preparing at /fc/root. AI Manifest: /tmp/manifest.xml.K9aaow SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml Zonename: fc Installation: Starting ... Creating IPS image Startup linked: 1/1 done Installing packages from: solaris origin: http://pkg.oracle.com/solaris/release/ DOWNLOAD PKGS FILES XFER (MB) SPEED Completed 190/190 34246/34246 231.3/231.3 7.2M/s PHASE ITEMS Installing new actions 48231/48231 Updating package state database Done Updating image state Done Creating fast lookup database Done Installation: Succeeded Note: Man pages can be obtained by installing pkg:/system/manual done. Done: Installation completed in 104.318 seconds. Next Steps: Boot the zone, then log into the zone console (zlogin -C) to complete the configuration process. Log saved in non-global zone as /fc/root/var/log/zones/zoneadm.20130214T045957Z.fc.install root@host:~#
Después de la instalación de la zona, las siguiente agrupación de almacenamiento nueva estará en línea.
root@host:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT fc_rpool 39.8G 441M 39.3G 1% 1.00x ONLINE - root@host:~# zpool status -v fc_rpool pool: fc_rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM fc_rpool ONLINE 0 0 0 c0t600144F0DBF8AF190000510979640005d0 ONLINE 0 0 0
La instalación de la zona estará contenida dentro de la agrupación de almacenamiento ZFS. La zona tiene el siguiente diseño de juego de datos ZFS.
root@host:~# zfs list -t all|grep fc fc_rpool 440M 38.7G 32K /fc fc_rpool/rpool 440M 38.7G 31K /rpool fc_rpool/rpool/ROOT 440M 38.7G 31K legacy fc_rpool/rpool/ROOT/solaris 440M 38.7G 405M /fc/root fc_rpool/rpool/ROOT/solaris@install 67K - 405M - fc_rpool/rpool/ROOT/solaris/var 34.3M 38.7G 33.6M /fc/root/var fc_rpool/rpool/ROOT/solaris/var@install 665K - 33.6M - fc_rpool/rpool/VARSHARE 31K 38.7G 31K /var/share fc_rpool/rpool/export 62K 38.7G 31K /export fc_rpool/rpool/export/home 31K 38.7G 31K /export/home
La nueva zona alojada en almacenamiento compartido proporcionado de un destino de canal de fibra se instaló correctamente. Esta zona ahora se puede iniciar con zoneadm boot.
Una vez iniciada la zona, el administrador de zona observa los juegos de datos ZFS y las agrupaciones de almacenamiento desde adentro de la zona.
root@fc:~# zpool list NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT rpool 39.8G 451M 39.3G 1% 1.00x ONLINE - root@fc:~# zpool status -v pool: rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 c0t600144F0DBF8AF190000510979640005d0 ONLINE 0 0 0 root@fc:~# zfs list -t all NAME USED AVAIL REFER MOUNTPOINT rpool 467M 38.7G 31K /rpool rpool/ROOT 467M 38.7G 31K legacy rpool/ROOT/solaris 467M 38.7G 430M / rpool/ROOT/solaris@install 1.90M - 405M - rpool/ROOT/solaris/var 34.4M 38.7G 33.7M /var rpool/ROOT/solaris/var@install 703K - 33.6M - rpool/VARSHARE 39K 38.7G 39K /var/share rpool/export 96.5K 38.7G 32K /export rpool/export/home 64.5K 38.7G 32K /export/home rpool/export/home/user 32.5K 38.7G 32.5K /export/home/user