JavaScript is required to for searching.
Omitir V�nculos de navegaci�n
Salir de la Vista de impresi�n
Guía de administración de Oracle Solaris ZFS
search filter icon
search icon

Información del documento

Prefacio

1.  Sistema de archivos ZFS de Oracle Solaris (introducción)

2.  Procedimientos iniciales con Oracle Solaris ZFS

3.  Oracle Solaris ZFS y sistemas de archivos tradicionales

4.  Administración de agrupaciones de almacenamiento de Oracle Solaris ZFS

5.  Instalación e inicio de un sistema de archivos raíz ZFS Oracle Solaris

Instalación e inicio de un sistema de archivos raíz ZFS Oracle Solaris (información general)

Funciones de instalación de ZFS

Requisitos de instalación y Oracle Solaris Live Upgrade para compatibilidad con ZFS

Requisitos de la versión de Oracle Solaris

Requisitos generales de la agrupación de almacenamiento ZFS

Requisitos de espacio en el disco para agrupaciones de almacenamiento ZFS

Requisitos de configuración de la agrupación de almacenamiento ZFS

Instalación de un sistema de archivos root ZFS (instalación inicial de Oracle Solaris)

Cómo crear una agrupación root ZFS reflejada (posterior a la instalación)

Instalación de un sistema de archivos raíz ZFS (instalación de archivo de almacenamiento flash de Oracle Solaris)

Instalación de un sistema de archivos root ZFS (instalación JumpStart)

Palabras clave de JumpStart para ZFS

Ejemplos de perfil JumpStart ZFS

Problemas de JumpStart para ZFS

Migración a un sistema de archivos root ZFS o actualización de un sistema de archivos root ZFS (Live Upgrade)

Problemas de migración de ZFS relacionados con Live Upgrade

Uso de Live Upgrade para migrar o actualizar un sistema de archivos root ZFS (sin zonas)

Uso de Live Upgrade para migrar o actualizar un sistema con zonas (Solaris 10 10/08)

Cómo migrar un sistema de archivos raíz UFS con raíces de zona en UFS a un sistema de archivos raíz ZFS (Solaris 10 10/08)

Cómo configurar un sistema de archivos raíz ZFS con raíces de zona en ZFS (Solaris 10 10/08)

Cómo actualizar o aplicar parches a un sistema de archivos raíz ZFS con raíces de zona en ZFS (Solaris 10 10/08)

Uso de Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas (al menos Solaris 10 5/09)

ZFS admitido con información de configuración de raíces de zona (al menos Solaris 10 5/09)

Cómo crear un entorno de inicio ZFS con un sistema de archivos raíz ZFS y una raíz de zona (al menos Solaris 10 5/09)

Cómo aplicar un parche o una actualización a un sistema de archivos raíz ZFS con raíces de zona (al menos Solaris 10 5/09)

Cómo migrar un sistema de archivos raíz UFS con una raíz de zona a un sistema de archivos raíz ZFS (al menos Solaris 10 5/09)

Compatibilidad de ZFS con dispositivos de intercambio y volcado

Ajuste del tamaño de los dispositivos de intercambio y volcado ZFS

Resolución de problemas de dispositivos de volcado ZFS

Inicio desde un sistema de archivos raíz ZFS

Inicio desde un disco alternativo en una agrupación raíz ZFS reflejada

SPARC: inicio desde un sistema de archivos raíz ZFS

x86: inicio desde un sistema de archivos raíz ZFS

Resolución de problemas de punto de montaje ZFS que impiden un inicio correcto (Solaris 10 10/08)

Cómo resolver problemas de punto de montaje ZFS

Inicio con fines de recuperación en un entorno de inicio root ZFS

Cómo iniciar ZFS en modo a prueba de fallos

Cómo iniciar ZFS desde un medio alternativo

Recuperación de la agrupación raíz ZFS o las instantáneas de la agrupación raíz

Cómo sustituir un disco en la agrupación raíz ZFS

Cómo crear instantáneas de la agrupación raíz

Cómo recrear una agrupación root ZFS y restaurar instantáneas de la agrupación root

Cómo deshacer instantáneas de agrupaciones raíz a partir de un inicio a prueba de fallos

6.  Administrar sistemas de archivos ZFS de Oracle Solaris

7.  Uso de clones e instantáneas de Oracle Solaris ZFS

8.  Uso de listas de control de acceso y atributos para proteger archivos Oracle Solaris ZFS

9.  Administración delegada de ZFS Oracle Solaris

10.  Temas avanzados de Oracle Solaris ZFS

11.  Recuperación de agrupaciones y solución de problemas de Oracle Solaris ZFS

A.  Descripciones de versiones de Oracle Solaris ZFS

Índice

Migración a un sistema de archivos root ZFS o actualización de un sistema de archivos root ZFS (Live Upgrade)

Las funciones de Actualización automática relacionadas con componentes UFS siguen disponibles y funcionan igual que en las versiones anteriores.

Hay disponibles las siguientes funciones:

Si desea más información sobre la instalación y las funciones de Actualización automática de Oracle Solaris, consulte Guía de instalación de Oracle Solaris 10 9/10: Actualización automática de Solaris y planificación de la actualización.

Para obtener información sobre los requisitos de Live Upgrade y ZFS, consulte Requisitos de instalación y Oracle Solaris Live Upgrade para compatibilidad con ZFS.

Problemas de migración de ZFS relacionados con Live Upgrade

Antes de utilizar Live Upgrade para migrar un sistema de archivos root UFS a un sistema de archivos root ZFS, examine los siguientes problemas:

Uso de Live Upgrade para migrar o actualizar un sistema de archivos root ZFS (sin zonas)

Los siguientes ejemplos muestran cómo migrar un sistema de archivos root UFS a un sistema de archivos root ZFS y cómo actualizar un sistema de archivos root ZFS.

Si desea migrar o actualizar un sistema con zonas, consulte las siguientes secciones:

Ejemplo 5-4 Uso de Live Upgrade para migrar de un sistema de archivos root UFS a uno ZFS

En el ejemplo siguiente se muestra cómo migrar a un sistema de archivos root ZFS desde un sistema de archivos root UFS. El entorno de inicio actual, ufsBE, que contiene un sistema de archivos raíz UFS, se identifica mediante la opción -c. Si no incluye la opción -c opcional, el nombre del entorno de inicio actual se convierte de forma predeterminada en el nombre del dispositivo. El entorno de inicio nuevo, zfsBE, se identifica mediante la opción -n. Antes de que se ejecute la operación lucreate, debe haber una agrupación de almacenamiento ZFS.

Para que se pueda iniciar y actualizar, la agrupación de almacenamiento ZFS se debe crear con segmentos en lugar de discos enteros. Antes de crear la agrupación, compruebe que los discos que se usarán en ella tengan una etiqueta SMI (VTOC) en lugar de una etiqueta EFI. Si se vuelve a etiquetar el disco con una etiqueta SMI, compruebe que el proceso de etiquetado no haya modificado el esquema de partición. En la mayoría de los casos, toda la capacidad del disco debe estar en los segmentos que se destinan a la agrupación raíz.

# zpool create rpool mirror c1t2d0s0 c2t1d0s0
# lucreate -c ufsBE -n zfsBE -p rpool
Analyzing system configuration.
No name for current boot environment.
Current boot environment is named <ufsBE>.
Creating initial configuration for primary boot environment <ufsBE>.
The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
PBE configuration successful: PBE name <ufsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
Comparing source boot environment <ufsBE> file systems with the file 
system(s) you specified for the new boot environment. Determining which 
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t2d0s0> is not a root device for any boot environment; cannot get BE ID.
Creating configuration for boot environment <zfsBE>.
Source boot environment is <ufsBE>.
Creating boot environment <zfsBE>.
Creating file systems on boot environment <zfsBE>.
Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>.
Populating file systems on boot environment <zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </rpool/ROOT>.
Creating compare database for file system </>.
Updating compare databases on boot environment <zfsBE>.
Making boot environment <zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-qD.mnt
updating /.alt.tmp.b-qD.mnt/platform/sun4u/boot_archive
Population of boot environment <zfsBE> successful.
Creation of boot environment <zfsBE> successful.

Tras finalizar la operación de lucreate, utilice el comando lustatus para ver el estado del entorno de inicio. Por ejemplo:

# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
ufsBE                      yes      yes    yes       no     -         
zfsBE                      yes      no     no        yes    -         

A continuación, examine la lista de componentes de ZFS. Por ejemplo:

# zfs list
NAME                   USED  AVAIL  REFER  MOUNTPOINT
rpool                 7.17G  59.8G  95.5K  /rpool
rpool/ROOT            4.66G  59.8G    21K  /rpool/ROOT
rpool/ROOT/zfsBE      4.66G  59.8G  4.66G  /
rpool/dump               2G  61.8G    16K  -
rpool/swap             517M  60.3G    16K  -

Después, utilice el comando luactivate para activar el nuevo entorno de inicio ZFS. Por ejemplo:

# luactivate zfsBE
A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>.

**********************************************************************

The target boot environment has been activated. It will be used when you 
reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You 
MUST USE either the init or the shutdown command when you reboot. If you 
do not use either init or shutdown, the system will not boot using the 
target BE.

**********************************************************************
.
.
.
Modifying boot archive service
Activation of boot environment <zfsBE> successful.

A continuación, reinicie el sistema en el entorno de inicio ZFS.

# init 6

Confirme que el entorno de inicio ZFS esté activo.

# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
ufsBE                      yes      no     no        yes    -         
zfsBE                      yes      yes    yes       no     -      

Si vuelve al entorno de inicio UFS, tendrá que volver a importar todas las agrupaciones de almacenamiento ZFS creadas en el entorno de inicio ZFS porque no están disponibles automáticamente en el entorno de inicio UFS.

Si ya no se necesita el entorno de inicio UFS, se puede eliminar con el comando ludelete.

Ejemplo 5-5 Uso de Live Upgrade para crear un entorno de inicio ZFS desde un entorno de inicio UFS (con un /var aparte)

En la versión Oracle Solaris 10 8/11, puede utilizar la opción lucreate - D para indicar que desea que se cree un sistema de archivos /var aparte al migrar de un sistema de archivos root UFS a un sistema de archivos root ZFS. En el ejemplo siguiente, el entorno de inicio UFS existente se migra a un entorno de inicio ZFS con un sistema de archivos /var aparte.

# lucreate -n zfsBE -p rpool -D /var
Determining types of file systems supported
Validating file system requests
Preparing logical storage devices
Preparing physical storage devices
Configuring physical storage devices
Configuring logical storage devices
Analyzing system configuration.
No name for current boot environment.
INFORMATION: The current boot environment is not named - assigning name <c0t0d0s0>.
Current boot environment is named <c0t0d0s0>.
Creating initial configuration for primary boot environment <c0t0d0s0>.
INFORMATION: No BEs are configured on this system.
The device </dev/dsk/c0t0d0s0> is not a root device for any boot environment; cannot get BE ID.
PBE configuration successful: PBE name <c0t0d0s0> PBE Boot Device </dev/dsk/c0t0d0s0>.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c0t1d0s0> is not a root device for any boot environment; cannot get BE ID.
Creating configuration for boot environment <zfsBE>.
Source boot environment is <c0t0d0s0>.
Creating file systems on boot environment <zfsBE>.
Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>.
Creating <zfs> file system for </var> in zone <global> on <rpool/ROOT/zfsBE/var>.
Populating file systems on boot environment <zfsBE>.
Analyzing zones.
Mounting ABE <zfsBE>.
Generating file list.
Copying data from PBE <c0t0d0s0> to ABE <zfsBE>
100% of filenames transferred
Finalizing ABE.
Fixing zonepaths in ABE.
Unmounting ABE <zfsBE>.
Fixing properties on ZFS datasets in ABE.
Reverting state of zones in PBE <c0t0d0s0>.
Making boot environment <zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-iaf.mnt
updating /.alt.tmp.b-iaf.mnt/platform/sun4u/boot_archive
Population of boot environment <zfsBE> successful.
Creation of boot environment <zfsBE> successful.
# luactivate zfsBE
A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>.
.
.
.
Modifying boot archive service
Activation of boot environment <zfsBE> successful.
# init 6

Revise los sistemas de archivos ZFS que se acaban de crear. Por ejemplo:

# zfs list
NAME                   USED  AVAIL  REFER  MOUNTPOINT
rpool                 6.29G  26.9G  32.5K  /rpool
rpool/ROOT            4.76G  26.9G    31K  legacy
rpool/ROOT/zfsBE      4.76G  26.9G  4.67G  /
rpool/ROOT/zfsBE/var  89.5M  26.9G  89.5M  /var
rpool/dump             512M  26.9G   512M  -
rpool/swap            1.03G  28.0G    16K  -

Ejemplo 5-6 Uso de Live Upgrade para crear un entorno de inicio ZFS a partir de un entorno de inicio ZFS

El proceso de creación de un entorno de inicio ZFS desde un entorno de inicio ZFS es muy rápido porque esta operación utiliza las funciones de clonación e instantánea de ZFS. Si el entorno de inicio actual reside en la misma agrupación ZFS, se omite la opción -p.

Si tiene varios entornos de inicio ZFS, lleve a cabo el siguiente procedimiento para seleccionar el entorno de inicio desde el que desea iniciar:

Para obtener más información, consulte el Ejemplo 5-12.

# lucreate -n zfs2BE
Analyzing system configuration.
No name for current boot environment.
INFORMATION: The current boot environment is not named - assigning name <zfsBE>.
Current boot environment is named <zfsBE>.
Creating initial configuration for primary boot environment <zfsBE>.
The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
Comparing source boot environment <zfsBE> file systems with the file 
system(s) you specified for the new boot environment. Determining which 
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
Creating configuration for boot environment <zfs2BE>.
Source boot environment is <zfsBE>.
Creating boot environment <zfs2BE>.
Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>.
Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>.
Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>.
Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>.
Population of boot environment <zfs2BE> successful.
Creation of boot environment <zfs2BE> successful.

Ejemplo 5-7 Actualización del entorno de inicio ZFS (luupgrade)

El entorno de inicio ZFS se puede actualizar con paquetes o parches adicionales.

A continuación se expone el proceso básico:

# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
zfsBE                      yes      no     no        yes    -         
zfs2BE                     yes      yes    yes       no     -   
# luupgrade -p -n zfsBE -s /net/system/export/s10up/Solaris_10/Product SUNWchxge
Validating the contents of the media </net/install/export/s10up/Solaris_10/Product>.
Mounting the BE <zfsBE>.
Adding packages to the BE <zfsBE>.

Processing package instance <SUNWchxge> from </net/install/export/s10up/Solaris_10/Product>

Chelsio N110 10GE NIC Driver(sparc) 11.10.0,REV=2006.02.15.20.41
Copyright (c) 2010, Oracle and/or its affiliates. All rights reserved.

This appears to be an attempt to install the same architecture and
version of a package which is already installed.  This installation
will attempt to overwrite this package.

Using </a> as the package base directory.
## Processing package information.
## Processing system information.
   4 package pathnames are already properly installed.
## Verifying package dependencies.
## Verifying disk space requirements.
## Checking for conflicts with packages already installed.
## Checking for setuid/setgid programs.

This package contains scripts which will be executed with super-user
permission during the process of installing this package.

Do you want to continue with the installation of <SUNWchxge> [y,n,?] y
Installing Chelsio N110 10GE NIC Driver as <SUNWchxge>

## Installing part 1 of 1.
## Executing postinstall script.

Installation of <SUNWchxge> was successful.
Unmounting the BE <zfsBE>.
The package add to the BE <zfsBE> completed.

También puede crear un entorno de inicio nuevo para actualizar a una versión posterior de Oracle Solaris. Por ejemplo:

# luupgrade -u -n newBE -s /net/install/export/s10up/latest

La opción -s especifica la ubicación de un medio de instalación de Solaris.

Ejemplo 5-8 Creación de un entorno de inicio ZFS con un archivo flash ZFS (luupgrade )

En la versión Oracle Solaris 10 8/11, puede utilizar el comando luupgrade para crear un entorno de inicio ZFS a partir de un archivo flash ZFS existente. A continuación se expone el proceso básico:

  1. Cree un archivo flash de un sistema maestro con un entorno de inicio ZFS.

    Por ejemplo:

    master-system# flarcreate -n s10zfsBE /tank/data/s10zfsflar
    Full Flash
    Checking integrity...
    Integrity OK.
    Running precreation scripts...
    Precreation scripts done.
    Determining the size of the archive...
    The archive will be approximately 4.67GB.
    Creating the archive...
    Archive creation complete.
    Running postcreation scripts...
    Postcreation scripts done.
    
    Running pre-exit scripts...
    Pre-exit scripts done.
  2. Haga que el archivo flash ZFS que fue creado en el sistema maestro esté disponible para el sistema clon.

    Las ubicaciones posibles para el archivo flash son un sistema de archivos local, HTTP, FTP, NFS, etc.

  3. Cree un entorno de inicio ZFS alternativo vacío en el sistema clon.

    Utilice la opción -s - para especificar que se trata de un entorno de inicio vacío que se rellenará con el contenido del archivo flash ZFS.

    Por ejemplo:

    clone-system# lucreate -n zfsflashBE -s - -p rpool
    Determining types of file systems supported
    Validating file system requests
    Preparing logical storage devices
    Preparing physical storage devices
    Configuring physical storage devices
    Configuring logical storage devices
    Analyzing system configuration.
    No name for current boot environment.
    INFORMATION: The current boot environment is not named - assigning name <s10zfsBE>.
    Current boot environment is named <s10zfsBE>.
    Creating initial configuration for primary boot environment <s10zfsBE>.
    INFORMATION: No BEs are configured on this system.
    The device </dev/dsk/c0t0d0s0> is not a root device for any boot environment; cannot get BE ID.
    PBE configuration successful: PBE name <s10zfsBE> PBE Boot Device </dev/dsk/c0t0d0s0>.
    Updating boot environment description database on all BEs.
    Updating system configuration files.
    The device </dev/dsk/c0t1d0s0> is not a root device for any boot environment; cannot get BE ID.
    Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsflashBE>.
    Creation of boot environment <zfsflashBE> successful.
  4. Instale el archivo flash ZFS en el entorno de inicio alternativo.

    Por ejemplo:

    clone-system# luupgrade -f -s /net/server/export/s10/latest -n zfsflashBE -a /tank/data/zfs10up2flar
    miniroot filesystem is <lofs>
    Mounting miniroot at </net/server/s10up/latest/Solaris_10/Tools/Boot>
    Validating the contents of the media </net/server/export/s10up/latest>.
    The media is a standard Solaris media.
    Validating the contents of the miniroot </net/server/export/s10up/latest/Solaris_10/Tools/Boot>.
    Locating the flash install program.
    Checking for existence of previously scheduled Live Upgrade requests.
    Constructing flash profile to use.
    Creating flash profile for BE <zfsflashBE>.
    Performing the operating system flash install of the BE <zfsflashBE>.
    CAUTION: Interrupting this process may leave the boot environment unstable or unbootable.
    Extracting Flash Archive: 100% completed (of 5020.86 megabytes)            
    The operating system flash install completed.
    updating /.alt.tmp.b-rgb.mnt/platform/sun4u/boot_archive
    
    The Live Flash Install of the boot environment <zfsflashBE> is complete.
  5. Active el entorno de inicio alternativo.

    clone-system# luactivate zfsflashBE
    A Live Upgrade Sync operation will be performed on startup of boot environment <zfsflashBE>.
    .
    .
    .
    Modifying boot archive service
    Activation of boot environment <zfsflashBE> successful.
  6. Reinicie el sistema.

    clone-system# init 6

Uso de Live Upgrade para migrar o actualizar un sistema con zonas (Solaris 10 10/08)

Live Upgrade se puede utilizar para migrar un sistema con zonas, pero las configuraciones admitidas son limitadas en la versión Solaris 10 10/08. Si está instalando o actualizando al menos a la versión Solaris 10 5/09, se admiten más configuraciones de zona. Para obtener más información, consulte Uso de Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas (al menos Solaris 10 5/09).

En esta sección se explica cómo instalar y configurar un sistema con zonas para poder actualizarlo y aplicarle parches mediante Live Upgrade. Si va a migrar a un sistema de archivos root ZFS sin zonas, consulte Uso de Live Upgrade para migrar o actualizar un sistema de archivos root ZFS (sin zonas).

Si va a migrar un sistema con zonas, o bien si tiene previsto configurar un sistema con zonas en la versión Solaris 10 10/08, consulte los procedimientos siguientes:

Siga los procedimientos recomendados para configurar zonas en un sistema con un sistema de archivos root ZFS para asegurarse de poder utilizar Live Upgrade en él.

Cómo migrar un sistema de archivos raíz UFS con raíces de zona en UFS a un sistema de archivos raíz ZFS (Solaris 10 10/08)

Este procedimiento explica cómo migrar un sistema de archivos raíz UFS con zonas instaladas a un sistema de archivos raíz ZFS y una configuración raíz de zona ZFS que se pueda actualizar o a la que se puedan aplicar parches.

En los pasos siguientes, el nombre de la agrupación de ejemplo es rpool y los nombres de los entornos de inicio activos de ejemplo comienzan con s10BE*.

  1. Actualice el sistema a la versión Solaris 10 10/08 si se ejecuta una versión de Solaris 10 anterior.

    Para obtener más información sobre cómo actualizar un sistema que ejecuta la versión Solaris 10, consulte Guía de instalación de Oracle Solaris 10 9/10: Actualización automática de Solaris y planificación de la actualización.

  2. Cree la agrupación raíz.
    # zpool create rpool mirror c0t1d0 c1t1d0

    Para obtener información sobre los requisitos de las agrupaciones root, consulte Requisitos de instalación y Oracle Solaris Live Upgrade para compatibilidad con ZFS.

  3. Confirme que se hayan iniciado las zonas desde el entorno de inicio UFS.
  4. Cree el nuevo entorno de inicio ZFS.
    # lucreate -n s10BE2 -p rpool

    Este comando establece conjuntos de datos en la agrupación root del nuevo entorno de inicio y copia el entorno de inicio actual (zonas incluidas) en esos conjuntos de datos.

  5. Active el nuevo entorno de inicio ZFS.
    # luactivate s10BE2

    El sistema ya ejecuta un sistema de archivos raíz ZFS; sin embargo, las raíces de zona de UFS siguen estando en el sistema de archivos raíz UFS. Los pasos siguientes son necesarios para migrar por completo las zonas UFS a una configuración ZFS compatible.

  6. Reinicie el sistema.
    # init 6
  7. Migre las zonas a un entorno de inicio ZFS.
    1. Inicie las zonas.
    2. Cree otro entorno de inicio en la agrupación.
      # lucreate s10BE3
    3. Active el nuevo entorno de inicio.
      # luactivate s10BE3
    4. Reinicie el sistema.
      # init 6

      En este paso se verifica que se hayan iniciado el entorno de inicio ZFS y las zonas.

  8. Solucione los posibles problemas de punto de montaje.

    Debido a un error en Live Upgrade, el inicio del entorno de inicio no activo podría fallar porque un conjunto de datos ZFS o el conjunto de datos ZFS de una zona del entorno de inicio tiene un punto de montaje no válido.

    1. Examine la salida de zfs list.

      Busque puntos de montaje temporales incorrectos. Por ejemplo:

      # zfs list -r -o name,mountpoint rpool/ROOT/s10up
      
      NAME                               MOUNTPOINT
      rpool/ROOT/s10up                   /.alt.tmp.b-VP.mnt/
      rpool/ROOT/s10up/zones             /.alt.tmp.b-VP.mnt//zones
      rpool/ROOT/s10up/zones/zonerootA   /.alt.tmp.b-VP.mnt/zones/zonerootA

      El punto de montaje del entorno de inicio ZFS root (rpool/ROOT/s10up) debe ser /.

    2. Restablezca los puntos de montaje del entorno de inicio ZFS y sus conjuntos de datos.

      Por ejemplo:

      # zfs inherit -r mountpoint rpool/ROOT/s10up
      # zfs set mountpoint=/ rpool/ROOT/s10up
    3. Reinicie el sistema.

      Cuando se presente la opción para iniciar un entorno de inicio determinado, ya sea en el indicador de OpenBoot PROM o en el menú de GRUB, seleccione el entorno de inicio cuyos puntos de montaje se acaban de corregir.

Cómo configurar un sistema de archivos raíz ZFS con raíces de zona en ZFS (Solaris 10 10/08)

Este procedimiento explica cómo configurar un sistema de archivos raíz ZFS y una configuración raíz de zona ZFS que se pueda actualizar o a la que se pueda aplicar parches. En esta configuración, las raíces de zona ZFS se crean como conjuntos de datos ZFS.

En los pasos siguientes, el nombre de la agrupación de ejemplo es rpool y el nombre del entorno de inicio activo de ejemplo es s10BE. El nombre del conjunto de datos de las zonas puede ser cualquier nombre de conjunto de datos válido. En el ejemplo siguiente, el nombre del conjunto de datos de las zonas es zones.

  1. Instale el sistema con un root ZFS, ya sea con el instalador de texto interactivo o con el método de instalación JumpStart.

    Según el método de instalación que seleccione, consulte Instalación de un sistema de archivos root ZFS (instalación inicial de Oracle Solaris) o Instalación de un sistema de archivos root ZFS (instalación JumpStart).

  2. Inicie el sistema desde la agrupación raíz recién creada.
  3. Cree un conjunto de datos para agrupar las raíces de zona.

    Por ejemplo:

    # zfs create -o canmount=noauto rpool/ROOT/s10BE/zones

    El establecimiento del valor noauto para la propiedad canmount impide que el conjunto de datos se monte de cualquier otra manera que no sea mediante la acción explícita de Live Upgrade y el código de inicio del sistema.

  4. Monte el conjunto de datos de zonas recién creado.
    # zfs mount rpool/ROOT/s10BE/zones

    El conjunto de datos se monta en /zones.

  5. Cree y monte un conjunto de datos para cada raíz de zona.
    # zfs create -o canmount=noauto rpool/ROOT/s10BE/zones/zonerootA
    # zfs mount rpool/ROOT/s10BE/zones/zonerootA
  6. Establezca los permisos pertinentes en el directorio raíz de zona.
    # chmod 700 /zones/zonerootA
  7. Configure la zona estableciendo la ruta de zona como se indica a continuación:
    # zonecfg -z zoneA
        zoneA: No such zone configured
        Use 'create' to begin configuring a new zone.
        zonecfg:zoneA> create
        zonecfg:zoneA> set zonepath=/zones/zonerootA

    Puede habilitar las zonas para que se inicien automáticamente cuando se inicie el sistema mediante la sintaxis siguiente:

    zonecfg:zoneA> set autoboot=true
  8. Instale la zona.
    # zoneadm -z zoneA install
  9. Inicie la zona.
    # zoneadm -z zoneA boot

Cómo actualizar o aplicar parches a un sistema de archivos raíz ZFS con raíces de zona en ZFS (Solaris 10 10/08)

Utilice este procedimiento cuando deba actualizar o aplicar parches a un sistema de archivos raíz ZFS con raíces de zona en ZFS. Estas actualizaciones pueden consistir en una actualización del sistema o en la aplicación de parches.

En los pasos siguientes, newBE es el nombre de ejemplo del entorno de inicio que se actualiza o al que se aplican parches.

  1. Cree el entorno de inicio al que se le aplicarán actualizaciones o parches.
    # lucreate -n newBE

    Se clona el entorno de inicio que ya existe, incluidas todas las zonas. Se crea un conjunto de datos para cada conjunto de datos del entorno de inicio original. Los nuevos conjuntos de datos se crean en la misma agrupación que la agrupación raíz actual.

  2. Seleccione una de las opciones siguientes para actualizar el sistema o aplicar parches al nuevo entorno de inicio:
    • Actualice el sistema.

      # luupgrade -u -n newBE -s /net/install/export/s10up/latest

      La opción -s especifica la ubicación del medio de instalación de Oracle Solaris.

    • Aplique parches al nuevo entorno de inicio.

       # luupgrade -t -n newBE -t -s /patchdir 139147-02 157347-14
  3. Active el nuevo entorno de inicio.
    # luactivate newBE
  4. Inicie desde el entorno de inicio recientemente activado.
    # init 6
  5. Solucione los posibles problemas de punto de montaje.

    Debido a un error en Live Upgrade, el inicio del entorno de inicio no activo podría fallar porque un conjunto de datos ZFS o el conjunto de datos ZFS de una zona del entorno de inicio tiene un punto de montaje no válido.

    1. Examine la salida de zfs list.

      Busque puntos de montaje temporales incorrectos. Por ejemplo:

      # zfs list -r -o name,mountpoint rpool/ROOT/newBE
      
      NAME                               MOUNTPOINT
      rpool/ROOT/newBE                   /.alt.tmp.b-VP.mnt/
      rpool/ROOT/newBE/zones             /.alt.tmp.b-VP.mnt/zones
      rpool/ROOT/newBE/zones/zonerootA   /.alt.tmp.b-VP.mnt/zones/zonerootA

      El punto de montaje del entorno de inicio ZFS raíz (rpool/ROOT/newBE) debe ser /.

    2. Restablezca los puntos de montaje del entorno de inicio ZFS y sus conjuntos de datos.

      Por ejemplo:

      # zfs inherit -r mountpoint rpool/ROOT/newBE
      # zfs set mountpoint=/ rpool/ROOT/newBE
    3. Reinicie el sistema.

      Cuando se presente la opción para iniciar un entorno de inicio determinado, ya sea en el indicador de OpenBoot PROM o en el menú de GRUB, seleccione el entorno de inicio cuyos puntos de montaje se acaban de corregir.

Uso de Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas (al menos Solaris 10 5/09)

Puede usar la función Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas a partir de la versión Solaris 10 10/08. A partir de la versión Solaris 10 5/09, Live Upgrade admite configuraciones de zonas (root y completas) dispersas adicionales.

En esta sección se describe cómo configurar un sistema con zonas para que se pueda aplicar un parche o una actualización con Live Upgrade a partir de la versión Solaris 10 5/09. Si va a migrar a un sistema de archivos root ZFS sin zonas, consulte Uso de Live Upgrade para migrar o actualizar un sistema de archivos root ZFS (sin zonas).

Tenga en cuenta los puntos siguientes cuando se utilice Actualización automática de Oracle Solaris con ZFS y zonas a partir de la versión Solaris 10 5/09:

Si está migrando o configurando un sistema con zonas a partir de la versión Solaris 10 5/09, revise la siguiente información:

ZFS admitido con información de configuración de raíces de zona (al menos Solaris 10 5/09)

Revise las configuraciones de zona admitidas antes de usar la función Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas.

Cómo crear un entorno de inicio ZFS con un sistema de archivos raíz ZFS y una raíz de zona (al menos Solaris 10 5/09)

Utilice este procedimiento después de haber realizado una instalación inicial de, al menos, la versión Solaris 10 5/09 para crear un sistema de archivos raíz ZFS. Utilice este procedimiento después de utilizar el comando luupgrade para actualizar un sistema de archivos root ZFS, al menos, a la versión Solaris 10 5/09. Se puede aplicar una actualización o un parche a un entorno de inicio ZFS que se cree mediante este procedimiento.

En los pasos que aparecen a continuación, el sistema Oracle Solaris 10 9/10 de ejemplo tiene un sistema de archivos raíz ZFS y un conjunto de datos raíz de zona en /rpool/zones. Se crea un entorno de inicio ZFS denominado zfs2BE al que se puede aplicar una actualización o un parche.

  1. Revise los sistemas de archivos ZFS existentes.
    # zfs list
    NAME                   USED  AVAIL  REFER  MOUNTPOINT
    rpool                 7.26G  59.7G    98K  /rpool
    rpool/ROOT            4.64G  59.7G    21K  legacy
    rpool/ROOT/zfsBE      4.64G  59.7G  4.64G  /
    rpool/dump            1.00G  59.7G  1.00G  -
    rpool/export            44K  59.7G    23K  /export
    rpool/export/home       21K  59.7G    21K  /export/home
    rpool/swap               1G  60.7G    16K  -
    rpool/zones            633M  59.7G   633M  /rpool/zones
  2. Asegúrese de que las zonas se hayan instalado e iniciado.
    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       2 zfszone          running    /rpool/zones                   native   shared
  3. Cree el entorno de inicio ZFS.
    # lucreate -n zfs2BE
    Analyzing system configuration.
    No name for current boot environment.
    INFORMATION: The current boot environment is not named - assigning name <zfsBE>.
    Current boot environment is named <zfsBE>.
    Creating initial configuration for primary boot environment <zfsBE>.
    The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
    PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
    Comparing source boot environment <zfsBE> file systems with the file 
    system(s) you specified for the new boot environment. Determining which 
    file systems should be in the new boot environment.
    Updating boot environment description database on all BEs.
    Updating system configuration files.
    Creating configuration for boot environment <zfs2BE>.
    Source boot environment is <zfsBE>.
    Creating boot environment <zfs2BE>.
    Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>.
    Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>.
    Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>.
    Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>.
    Population of boot environment <zfs2BE> successful.
    Creation of boot environment <zfs2BE> successful.
  4. Active el entorno de inicio ZFS.
    # lustatus
    Boot Environment           Is       Active Active    Can    Copy      
    Name                       Complete Now    On Reboot Delete Status    
    -------------------------- -------- ------ --------- ------ ----------
    zfsBE                      yes      yes    yes       no     -         
    zfs2BE                     yes      no     no        yes    -         
    # luactivate zfs2BE
    A Live Upgrade Sync operation will be performed on startup of boot environment <zfs2BE>.
    .
    .
    .
  5. Inicie el entorno de inicio ZFS.
    # init 6
  6. Confirme que las zonas y los sistemas de archivos ZFS se creen en el nuevo entorno de inicio.
    # zfs list
    NAME                               USED  AVAIL  REFER  MOUNTPOINT
    rpool                             7.38G  59.6G    98K  /rpool
    rpool/ROOT                        4.72G  59.6G    21K  legacy
    rpool/ROOT/zfs2BE                 4.72G  59.6G  4.64G  /
    rpool/ROOT/zfs2BE@zfs2BE          74.0M      -  4.64G  -
    rpool/ROOT/zfsBE                  5.45M  59.6G  4.64G  /.alt.zfsBE
    rpool/dump                        1.00G  59.6G  1.00G  -
    rpool/export                        44K  59.6G    23K  /export
    rpool/export/home                   21K  59.6G    21K  /export/home
    rpool/swap                           1G  60.6G    16K  -
    rpool/zones                       17.2M  59.6G   633M  /rpool/zones
    rpool/zones-zfsBE                  653M  59.6G   633M  /rpool/zones-zfsBE
    rpool/zones-zfsBE@zfs2BE          19.9M      -   633M  -
    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       - zfszone          installed  /rpool/zones                   native   shared

Cómo aplicar un parche o una actualización a un sistema de archivos raíz ZFS con raíces de zona (al menos Solaris 10 5/09)

Utilice este procedimiento cuando deba aplicar parches o actualizaciones a un sistema de archivos raíz ZFS con raíces de zona en la versión Solaris 10 5/09. Estas actualizaciones pueden consistir en una actualización del sistema o en la aplicación de parches.

En los pasos siguientes, zfs2BE es el nombre de ejemplo del entorno de inicio al que se le aplica una actualización o un parche.

  1. Revise los sistemas de archivos ZFS existentes.
    # zfs list
    NAME                               USED  AVAIL  REFER  MOUNTPOINT
    rpool                             7.38G  59.6G   100K  /rpool
    rpool/ROOT                        4.72G  59.6G    21K  legacy
    rpool/ROOT/zfs2BE                 4.72G  59.6G  4.64G  /
    rpool/ROOT/zfs2BE@zfs2BE          75.0M      -  4.64G  -
    rpool/ROOT/zfsBE                  5.46M  59.6G  4.64G  /
    rpool/dump                        1.00G  59.6G  1.00G  -
    rpool/export                        44K  59.6G    23K  /export
    rpool/export/home                   21K  59.6G    21K  /export/home
    rpool/swap                           1G  60.6G    16K  -
    rpool/zones                       22.9M  59.6G   637M  /rpool/zones
    rpool/zones-zfsBE                  653M  59.6G   633M  /rpool/zones-zfsBE
    rpool/zones-zfsBE@zfs2BE          20.0M      -   633M  -
  2. Asegúrese de que las zonas se hayan instalado e iniciado.
    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       5 zfszone          running    /rpool/zones                   native   shared
  3. Cree el entorno de inicio ZFS al que aplicar actualizaciones o parches.
    # lucreate -n zfs2BE
    Analyzing system configuration.
    Comparing source boot environment <zfsBE> file systems with the file 
    system(s) you specified for the new boot environment. Determining which 
    file systems should be in the new boot environment.
    Updating boot environment description database on all BEs.
    Updating system configuration files.
    Creating configuration for boot environment <zfs2BE>.
    Source boot environment is <zfsBE>.
    Creating boot environment <zfs2BE>.
    Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>.
    Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>.
    Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>.
    Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>.
    Creating snapshot for <rpool/zones> on <rpool/zones@zfs10092BE>.
    Creating clone for <rpool/zones@zfs2BE> on <rpool/zones-zfs2BE>.
    Population of boot environment <zfs2BE> successful.
    Creation of boot environment <zfs2BE> successful.
  4. Seleccione una de las opciones siguientes para actualizar el sistema o aplicar parches al nuevo entorno de inicio:
    • Actualice el sistema.

      # luupgrade -u -n zfs2BE -s /net/install/export/s10up/latest

      La opción -s especifica la ubicación del medio de instalación de Oracle Solaris.

      Este proceso puede durar mucho tiempo.

      Para obtener un ejemplo completo del proceso luupgrade, consulte el Ejemplo 5-9.

    • Aplique parches al nuevo entorno de inicio.

      # luupgrade -t -n zfs2BE -t -s /patchdir patch-id-02 patch-id-04
  5. Active el nuevo entorno de inicio.
    # lustatus
    Boot Environment           Is       Active Active    Can    Copy      
    Name                       Complete Now    On Reboot Delete Status    
    -------------------------- -------- ------ --------- ------ ----------
    zfsBE                      yes      yes    yes       no     -         
    zfs2BE                     yes      no     no        yes    -    
    # luactivate zfs2BE
    A Live Upgrade Sync operation will be performed on startup of boot environment <zfs2BE>.
    .
    .
    .
  6. Inicie desde el entorno de inicio recién activado.
    # init 6

Ejemplo 5-9 Actualización de un sistema de archivos root ZFS con una root de zona a un sistema de archivos root ZFS de Oracle Solaris 10 9/10

En este ejemplo, un entorno de inicio ZFS (zfsBE), creado en un sistema Solaris 10 10/09 con un sistema de archivos root ZFS y una root de zona en una agrupación no root, se actualiza a la versión Oracle Solaris 10 9/10. Este proceso puede durar mucho tiempo. A continuación, el entorno de inicio actualizado (zfs2BE) se activa. Asegúrese de que las zonas se hayan instalado e iniciado antes de intentar la actualización.

En este ejemplo, la agrupación zonepool, el conjunto de datos /zonepool/zones, así como la zona zfszone se crean de este modo:

# zpool create zonepool mirror c2t1d0 c2t5d0
# zfs create zonepool/zones
# chmod 700 zonepool/zones
# zonecfg -z zfszone
zfszone: No such zone configured
Use 'create' to begin configuring a new zone.
zonecfg:zfszone> create
zonecfg:zfszone> set zonepath=/zonepool/zones
zonecfg:zfszone> verify
zonecfg:zfszone> exit
# zoneadm -z zfszone install
cannot create ZFS dataset zonepool/zones: dataset already exists
Preparing to install zone <zfszone>.
Creating list of files to copy from the global zone.
Copying <8960> files to the zone.
.
.
.
# zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   2 zfszone          running    /zonepool/zones                native   shared

# lucreate -n zfsBE
.
.
.
# luupgrade -u -n zfsBE -s /net/install/export/s10up/latest
40410 blocks
miniroot filesystem is <lofs>
Mounting miniroot at </net/system/export/s10up/latest/Solaris_10/Tools/Boot>
Validating the contents of the media </net/system/export/s10up/latest>.
The media is a standard Solaris media.
The media contains an operating system upgrade image.
The media contains <Solaris> version <10>.
Constructing upgrade profile to use.
Locating the operating system upgrade program.
Checking for existence of previously scheduled Live Upgrade requests.
Creating upgrade profile for BE <zfsBE>.
Determining packages to install or upgrade for BE <zfsBE>.
Performing the operating system upgrade of the BE <zfsBE>.
CAUTION: Interrupting this process may leave the boot environment unstable 
or unbootable.
Upgrading Solaris: 100% completed
Installation of the packages from this media is complete.
Updating package information on boot environment <zfsBE>.
Package information successfully updated on boot environment <zfsBE>.
Adding operating system patches to the BE <zfsBE>.
The operating system patch installation is complete.
INFORMATION: The file </var/sadm/system/logs/upgrade_log> on boot 
environment <zfsBE> contains a log of the upgrade operation.
INFORMATION: The file </var/sadm/system/data/upgrade_cleanup> on boot 
environment <zfsBE> contains a log of cleanup operations required.
INFORMATION: Review the files listed above. Remember that all of the files 
are located on boot environment <zfsBE>. Before you activate boot 
environment <zfsBE>, determine if any additional system maintenance is 
required or if additional media of the software distribution must be 
installed.
The Solaris upgrade of the boot environment <zfsBE> is complete.
Installing failsafe
Failsafe install is complete.
# luactivate zfs2BE
# init 6
# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
zfsBE                      yes      no     no        yes    -         
zfs2BE                     yes      yes    yes       no     -         
# zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   - zfszone          installed  /zonepool/zones                native   shared

Cómo migrar un sistema de archivos raíz UFS con una raíz de zona a un sistema de archivos raíz ZFS (al menos Solaris 10 5/09)

Utilice este procedimiento para migrar un sistema con un sistema de archivos raíz UFS y una raíz de zona al menos a la versión Solaris 10 5/09. A continuación, utilice Modernización automática para crear un entorno de arranque ZFS.

En los pasos que aparecen a continuación, el nombre del entorno de inicio UFS de ejemplo es c1t1d0s0, la root de zona UFS es zonepool/zfszone y el entorno de inicio root ZFS es zfsBE.

  1. Actualice el sistema a la versión Solaris 10 5/09 si se ejecuta una versión de Solaris 10 anterior.

    Para obtener información sobre cómo actualizar un sistema que ejecuta la versión Solaris 10, consulte Guía de instalación de Oracle Solaris 10 9/10: Actualización automática de Solaris y planificación de la actualización.

  2. Cree la agrupación raíz.

    Para obtener información sobre los requisitos de las agrupaciones root, consulte Requisitos de instalación y Oracle Solaris Live Upgrade para compatibilidad con ZFS.

  3. Confirme que se hayan iniciado las zonas desde el entorno de inicio UFS.
    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       2 zfszone          running    /zonepool/zones                native   shared
  4. Cree el entorno de inicio ZFS nuevo.
    # lucreate -c c1t1d0s0 -n zfsBE -p rpool

    Este comando establece conjuntos de datos en la agrupación root del nuevo entorno de inicio y copia el entorno de inicio actual (zonas incluidas) en esos conjuntos de datos.

  5. Active el entorno de inicio ZFS nuevo.
    # lustatus
    Boot Environment           Is       Active Active    Can    Copy      
    Name                       Complete Now    On Reboot Delete Status    
    -------------------------- -------- ------ --------- ------ ----------
    c1t1d0s0                   yes      no     no        yes    -         
    zfsBE                      yes      yes    yes       no     -         #
    luactivate zfsBE       
    A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>.
    .
    .
    .
  6. Reinicie el sistema.
    # init 6
  7. Confirme que las zonas y los sistemas de archivos ZFS se creen en el nuevo entorno de inicio.
    # zfs list
    NAME                                USED  AVAIL  REFER  MOUNTPOINT
    rpool                              6.17G  60.8G    98K  /rpool
    rpool/ROOT                         4.67G  60.8G    21K  /rpool/ROOT
    rpool/ROOT/zfsBE                   4.67G  60.8G  4.67G  /
    rpool/dump                         1.00G  60.8G  1.00G  -
    rpool/swap                          517M  61.3G    16K  -
    zonepool                            634M  7.62G    24K  /zonepool
    zonepool/zones                      270K  7.62G   633M  /zonepool/zones
    zonepool/zones-c1t1d0s0             634M  7.62G   633M  /zonepool/zones-c1t1d0s0
    zonepool/zones-c1t1d0s0@zfsBE       262K      -   633M  -
    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       - zfszone          installed  /zonepool/zones                native   shared

Ejemplo 5-10 Migración de un sistema de archivos raíz UFS con raíz de zona a un sistema de archivos raíz ZFS

En este ejemplo, un sistema Oracle Solaris 10 9/10 con un sistema de archivos root UFS y una root de zona (/uzone/ufszone), así como una agrupación no root ZFS (pool) y una root de zona (/pool/zfszone), se migra a un sistema de archivos root ZFS. Asegúrese de que la agrupación raíz ZFS se haya creado y de que las zonas se hayan instalado e iniciado antes de intentar la migración.

# zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   2 ufszone          running    /uzone/ufszone                 native   shared
   3 zfszone          running    /pool/zones/zfszone            native   shared
# lucreate -c ufsBE -n zfsBE -p rpool
Analyzing system configuration.
No name for current boot environment.
Current boot environment is named <zfsBE>.
Creating initial configuration for primary boot environment <zfsBE>.
The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
PBE configuration successful: PBE name <ufsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
Comparing source boot environment <ufsBE> file systems with the file 
system(s) you specified for the new boot environment. Determining which 
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID.
Creating configuration for boot environment <zfsBE>.
Source boot environment is <ufsBE>.
Creating boot environment <zfsBE>.
Creating file systems on boot environment <zfsBE>.
Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>.
Populating file systems on boot environment <zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Copying root of zone <ufszone> to </.alt.tmp.b-EYd.mnt/uzone/ufszone>.
Creating snapshot for <pool/zones/zfszone> on <pool/zones/zfszone@zfsBE>.
Creating clone for <pool/zones/zfszone@zfsBE> on <pool/zones/zfszone-zfsBE>.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </rpool/ROOT>.
Creating compare database for file system </>.
Updating compare databases on boot environment <zfsBE>.
Making boot environment <zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-DLd.mnt
updating /.alt.tmp.b-DLd.mnt/platform/sun4u/boot_archive
Population of boot environment <zfsBE> successful.
Creation of boot environment <zfsBE> successful.
# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
ufsBE                      yes      yes    yes       no     -         
zfsBE                      yes      no     no        yes    -         
# luactivate zfsBE    
.
.
.
# init 6
.
.
.
# zfs list
NAME                                    USED  AVAIL  REFER  MOUNTPOINT
pool                                    628M  66.3G    19K  /pool
pool/zones                              628M  66.3G    20K  /pool/zones
pool/zones/zfszone                     75.5K  66.3G   627M  /pool/zones/zfszone
pool/zones/zfszone-ufsBE                628M  66.3G   627M  /pool/zones/zfszone-ufsBE
pool/zones/zfszone-ufsBE@zfsBE           98K      -   627M  -
rpool                                  7.76G  59.2G    95K  /rpool
rpool/ROOT                             5.25G  59.2G    18K  /rpool/ROOT
rpool/ROOT/zfsBE                       5.25G  59.2G  5.25G  /
rpool/dump                             2.00G  59.2G  2.00G  -
rpool/swap                              517M  59.7G    16K  -
# zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   - ufszone          installed  /uzone/ufszone                 native   shared
   - zfszone          installed  /pool/zones/zfszone            native   shared