Guía de administración de Oracle Solaris ZFS

Capítulo 5 Instalación e inicio de un sistema de archivos raíz ZFS Oracle Solaris

En este capítulo se describe cómo instalar e iniciar un sistema de archivos ZFS Oracle Solaris. También se describe la migración de un sistema de archivos raíz UFS a un sistema de archivos ZFS mediante Actualización automática de Oracle Solaris.

Este capítulo se divide en las secciones siguientes:

Si desea obtener una lista de problemas conocidos de esta versión, consulte Notas de la versión de Oracle Solaris 10 9/10.

Para obtener información actualizada sobre resolución de problemas, consulte el sitio siguiente:

http://www.solarisinternals.com/wiki/index.php/ZFS_Troubleshooting_Guide

Instalación e inicio de un sistema de archivos raíz ZFS Oracle Solaris (información general)

A partir de Solaris 10 10/08, se puede llevar a cabo una instalación e iniciar desde un sistema de archivos raíz ZFS de las maneras siguientes:

Después de instalar un sistema basado en SPARC o x86 con un sistema de archivos raíz ZFS o de migrar a un sistema de archivos raíz ZFS, el sistema se inicia automáticamente desde el sistema de archivos raíz ZFS. Para obtener más información sobre cambios de inicio, consulte Inicio desde un sistema de archivos raíz ZFS.

Funciones de instalación de ZFS

En esta versión de Solaris se proporcionan las siguientes funciones de instalación de ZFS:

En esta versión no se proporcionan las siguientes funciones de instalación:

Requisitos de instalación de Oracle Solaris y de Actualización automática de Oracle Solaris para compatibilidad con ZFS

Antes de intentar instalar un sistema con un sistema de archivos raíz ZFS o de migrar un sistema de archivos raíz UFS a uno ZFS, deben cumplirse los requisitos siguientes:

Requisitos de la versión de Oracle Solaris

Puede instalar e iniciar un sistema de archivos raíz ZFS, o bien migrar a un sistema de archivos raíz ZFS de las maneras siguientes:

Requisitos generales de la agrupación de almacenamiento ZFS

Las siguientes secciones describen los requisitos de configuración y el espacio de la agrupación raíz ZFS.

Requisitos de espacio en el disco para agrupaciones de almacenamiento ZFS

La cantidad mínima necesaria de espacio de agrupación para un sistema de archivos raíz ZFS es mayor que la de un sistema de archivos raíz UFS porque los dispositivos de intercambio y volcado deben ser independientes en un entorno raíz ZFS. De forma predeterminada, en un sistema de archivos raíz UFS los dispositivos de intercambio y volcado son el mismo dispositivo.

Al instalar o actualizar un sistema con un sistema de archivos raíz ZFS, el tamaño del área de intercambio y del dispositivo de volcado dependen de la cantidad de memoria física. La cantidad mínima de espacio de agrupación disponible para un sistema de archivos raíz ZFS depende de la cantidad de memoria física, el espacio en el disco disponible y la cantidad de entornos de inicio que se vayan a crear.

Revise los siguientes requisitos de espacio en el disco para agrupaciones de almacenamiento ZFS:

Requisitos de configuración de la agrupación de almacenamiento ZFS

Revise los siguientes requisitos de configuración de la agrupación de almacenamiento ZFS:

Instalación de un sistema de archivos raíz ZFS (instalación inicial)

En esta versión de Solaris, puede efectuar una instalación inicial mediante el instalador de texto interactivo de Solaris para crear una agrupación de almacenamiento ZFS que contenga un sistema de archivos raíz ZFS que se pueda iniciar. Si dispone de una agrupación de almacenamiento ZFS que desea utilizar en el sistema de archivos raíz ZFS, debe emplear Actualización automática de Oracle Solaris para migrar del sistema de archivos raíz UFS actual a uno ZFS que haya en una agrupación de almacenamiento ZFS. Para obtener más información, consulte Migración de un sistema de archivos raíz UFS a uno ZFS (Actualización automática de Oracle Solaris).

Si va a configurar las zonas después de la instalación inicial de un sistema de archivos raíz ZFS y tiene previsto aplicar parches o actualizaciones al sistema, consulte Uso de Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas (Solaris 10 10/08) o Uso de Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas (al menos Solaris 10 5/09).

Si ya tiene agrupaciones de almacenamiento ZFS en el sistema, se confirman con el siguiente mensaje. Sin embargo, estas agrupaciones permanecen intactas, a menos que se seleccionen los discos de las agrupaciones existentes para crear la nueva agrupación de almacenamiento.


There are existing ZFS pools available on this system.  However, they can only be upgraded 
using the Live Upgrade tools.  The following screens will only allow you to install a ZFS root system, 
not upgrade one.

Precaución – Precaución –

Las agrupaciones que existan se destruirán si para la nueva agrupación se selecciona cualquiera de sus discos.


Antes de comenzar la instalación inicial para crear una agrupación de almacenamiento ZFS, consulte Requisitos de instalación de Oracle Solaris y de Actualización automática de Oracle Solaris para compatibilidad con ZFS.


Ejemplo 5–1 Instalación inicial de un sistema de archivos raíz ZFS que se puede iniciar

El proceso de instalación de texto interactivo de Solaris es, básicamente, el mismo que el de anteriores versiones de Solaris, salvo el hecho de indicar al usuario que cree un sistema de archivos raíz UFS o ZFS. En esta versión, UFS sigue siendo el sistema de archivos predeterminado. Si se selecciona un sistema de archivos raíz ZFS, se indica al usuario que cree una agrupación de almacenamiento ZFS. Los pasos necesarios para instalar un sistema de archivos raíz ZFS se indican a continuación:

  1. Seleccione el método de instalación interactiva de Solaris porque para crear un sistema de archivos raíz ZFS que se puede iniciar no se dispone de la instalación flash de Solaris. Sin embargo, puede crear un archivo de almacenamiento flash ZFS para utilizarlo durante una instalación JumpStart. Para obtener más información, consulte Instalación de un sistema de archivos raíz ZFS (instalación de archivo de almacenamiento flash de Oracle Solaris).

    A partir de la versión Solaris 10 10/08, puede migrar un sistema de archivos raíz UFS a un sistema de archivos raíz ZFS siempre que ya se haya instalado al menos la versión Solaris 10 10/08. Para obtener más información sobre cómo migrar a un sistema de archivos raíz ZFS, consulte Migración de un sistema de archivos raíz UFS a uno ZFS (Actualización automática de Oracle Solaris).

  2. Para crear un sistema de archivos raíz ZFS, seleccione la opción ZFS. Por ejemplo:


    Choose Filesystem Type
    
      Select the filesystem to use for your Solaris installation
    
    
                [ ] UFS
                [X] ZFS
  3. Una vez seleccionado el software que se instalará, se le pedirá que seleccione los discos para crear la agrupación de almacenamiento ZFS. Esta pantalla es similar a la de las versiones anteriores de Solaris.


    Select Disks
    
      On this screen you must select the disks for installing Solaris software.
      Start by looking at the Suggested Minimum field; this value is the
      approximate space needed to install the software you've selected. For ZFS,
      multiple disks will be configured as mirrors, so the disk you choose, or the
      slice within the disk must exceed the Suggested Minimum value.
      NOTE: ** denotes current boot disk
    
      Disk Device                                              Available Space
      =============================================================================
      [X]    c1t0d0                                           69994 MB  (F4 to edit)
      [ ]    c1t1d0                                           69994 MB
      [-]    c1t2d0                                               0 MB
      [-]    c1t3d0                                               0 MB
    
                                      Maximum Root Size:  69994 MB
                                      Suggested Minimum:   8279 MB

    Puede seleccionar el disco o los discos que deben usarse para la agrupación raíz ZFS. Si selecciona dos discos, para la agrupación raíz se establece una configuración de dos discos reflejados. La configuración óptima es una agrupación de dos o tres discos reflejados. Si tiene ocho discos y los selecciona todos, se utilizan para la agrupación raíz como un gran reflejo. Esta configuración no es óptima. Otra opción es crear una agrupación raíz reflejada cuando se haya terminado la instalación inicial. No es posible efectuar una configuración de agrupaciones RAID-Z para la agrupación raíz. Si desea más información sobre la configuración de agrupaciones de almacenamiento ZFS, consulte Funciones de repetición de una agrupación de almacenamiento de ZFS.

  4. Para seleccionar dos discos para crear una agrupación raíz reflejada, utilice las teclas de control del cursor para seleccionar el segundo disco. En el ejemplo siguiente, tanto c1t1d0 como c1t2d0 se seleccionan como los discos de la agrupación raíz. Los dos discos deben tener una etiqueta SMI y un segmento 0. Si los discos no están etiquetados con una etiqueta SMI o no contienen segmentos, debe salir del programa de instalación, usar la utilidad format para reetiquetar y reparticionar los discos y, a continuación, reiniciar el programa de instalación.


    Select Disks
    
      On this screen you must select the disks for installing Solaris software.
      Start by looking at the Suggested Minimum field; this value is the
      approximate space needed to install the software you've selected. For ZFS,
      multiple disks will be configured as mirrors, so the disk you choose, or the
      slice within the disk must exceed the Suggested Minimum value.
      NOTE: ** denotes current boot disk
    
      Disk Device                                              Available Space
      =============================================================================
      [X]    c1t0d0                                           69994 MB  
      [X]    c1t1d0                                           69994 MB  (F4 to edit)
      [-]    c1t2d0                                               0 MB
      [-]    c1t3d0                                               0 MB
    
                                      Maximum Root Size:  69994 MB
                                      Suggested Minimum:   8279 MB

    Si la columna Esp. disponible identifica 0 MB, es muy probable que el disco tenga una etiqueta EFI. Si desea utilizar un disco con una etiqueta EFI, deberá salir del programa de instalación, volver a etiquetar el disco con una etiqueta SMI utilizando el comando format -e y, a continuación, reiniciar el programa de instalación.

    Si no crea una agrupación raíz reflejada durante la instalación, puede crear fácilmente una después de la instalación. Para obtener información, consulte Cómo crear una agrupación raíz reflejada (posterior a la instalación).

  5. Tras haber seleccionado uno o varios discos para la agrupación de almacenamiento ZFS, aparece una pantalla similar a la siguiente:


    Configure ZFS Settings
    
      Specify the name of the pool to be created from the disk(s) you have chosen.
      Also specify the name of the dataset to be created within the pool that is
      to be used as the root directory for the filesystem.
    
                  ZFS Pool Name: rpool                                   
          ZFS Root Dataset Name: s10s_u9wos_08
          ZFS Pool Size (in MB): 69995
      Size of Swap Area (in MB): 2048
      Size of Dump Area (in MB): 1536
            (Pool size must be between 6231 MB and 69995 MB)
    
                             [X] Keep / and /var combined
                             [ ] Put /var on a separate dataset

    En esta pantalla se puede cambiar el nombre de la agrupación ZFS, el nombre del conjunto de datos, el tamaño de la agrupación y el tamaño de los dispositivos de intercambio y volcado. Para ello, con las teclas de control del cursor desplácese por las entradas y sustituya los valores predeterminados por los nuevos. Si lo desea, puede aceptar los valores predeterminados. Además, puede modificar el modo de crear y montar el sistema de archivos /var.

    En este ejemplo, el nombre del conjunto de datos raíz se cambia a zfsBE.


                  ZFS Pool Name: rpool
          ZFS Root Dataset Name: zfsBE                                   
          ZFS Pool Size (in MB): 69995
      Size of Swap Area (in MB): 2048
      Size of Dump Area (in MB): 1536
            (Pool size must be between 6231 MB and 69995 MB)
    
                             [X] Keep / and /var combined
                             [ ] Put /var on a separate dataset
  6. El perfil de instalación se puede cambiar en esta pantalla final de la instalación. Por ejemplo:


    Profile
    
      The information shown below is your profile for installing Solaris software.
      It reflects the choices you've made on previous screens.
    
      ============================================================================
    
                    Installation Option: Initial
                            Boot Device: c1t0d0
                  Root File System Type: ZFS
                        Client Services: None
    
                                Regions: North America
                          System Locale: C ( C )
    
                               Software: Solaris 10, Entire Distribution
                              Pool Name: rpool
                  Boot Environment Name: zfsBE
                              Pool Size: 69995 MB
                        Devices in Pool: c1t0d0
                                         c1t1d0
  7. Una vez finalizada la instalación, examine la información del sistema de archivos y la agrupación de almacenamiento ZFS resultante. Por ejemplo:


    # zpool status
      pool: rpool
     state: ONLINE
     scrub: none requested
    config:
    
            NAME          STATE     READ WRITE CKSUM
            rpool         ONLINE       0     0     0
              mirror-0    ONLINE       0     0     0
                c1t0d0s0  ONLINE       0     0     0
                c1t1d0s0  ONLINE       0     0     0
    
    errors: No known data errors
    # zfs list
    NAME                USED  AVAIL  REFER  MOUNTPOINT
    rpool              8.03G  58.9G    96K  /rpool
    rpool/ROOT         4.47G  58.9G    21K  legacy
    rpool/ROOT/zfsBE   4.47G  58.9G  4.47G  /
    rpool/dump         1.50G  58.9G  1.50G  -
    rpool/export         44K  58.9G    23K  /export
    rpool/export/home    21K  58.9G    21K  /export/home
    rpool/swap         2.06G  61.0G    16K  -

    La salida de zfs list de ejemplo identifica los componentes de la agrupación raíz, por ejemplo el directorio rpool/ROOT, al que de forma predeterminada no se puede acceder.

  8. Si desea crear otro entorno de inicio ZFS en la misma agrupación de almacenamiento, puede utilizar el comando lucreate. En el ejemplo siguiente, se crea un nuevo entorno de inicio denominado zfs2BE. El entorno de inicio actual se denomina zfsBE, como se muestra en la salida zfs list. Sin embargo, el entorno de inicio actual no se confirma en la salida lustatus hasta que se crea el entorno de inicio nuevo.


    # lustatus
    ERROR: No boot environments are configured on this system
    ERROR: cannot determine list of all boot environment names

    Si se crea un entorno de inicio nuevo en la misma agrupación de inicio, se debe utilizar una sintaxis parecida a la siguiente:


    # lucreate -n zfs2BE
    INFORMATION: The current boot environment is not named - assigning name <zfsBE>.
    Current boot environment is named <zfsBE>.
    Creating initial configuration for primary boot environment <zfsBE>.
    The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
    PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
    Comparing source boot environment <zfsBE> file systems with the file 
    system(s) you specified for the new boot environment. Determining which 
    file systems should be in the new boot environment.
    Updating boot environment description database on all BEs.
    Updating system configuration files.
    Creating configuration for boot environment <zfs2BE>.
    Source boot environment is <zfsBE>.
    Creating boot environment <zfs2BE>.
    Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>.
    Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>.
    Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>.
    Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>.
    Population of boot environment <zfs2BE> successful.
    Creation of boot environment <zfs2BE> successful.

    La creación de un entorno de inicio ZFS en la misma agrupación utiliza las funciones de clonación e instantánea para crear instantáneamente el entorno de inicio. Si desea más información sobre el uso de Actualización automática de Oracle Solaris para una migración de raíz ZFS, consulte Migración de un sistema de archivos raíz UFS a uno ZFS (Actualización automática de Oracle Solaris).

  9. A continuación, verifique los entornos de inicio nuevos. Por ejemplo:


    # lustatus
    Boot Environment           Is       Active Active    Can    Copy      
    Name                       Complete Now    On Reboot Delete Status    
    -------------------------- -------- ------ --------- ------ ----------
    zfsBE                      yes      yes    yes       no     -         
    zfs2BE                     yes      no     no        yes    -        
    # zfs list
    NAME                      USED  AVAIL  REFER  MOUNTPOINT
    rpool                    8.03G  58.9G    97K  /rpool
    rpool/ROOT               4.47G  58.9G    21K  legacy
    rpool/ROOT/zfs2BE         116K  58.9G  4.47G  /
    rpool/ROOT/zfsBE         4.47G  58.9G  4.47G  /
    rpool/ROOT/zfsBE@zfs2BE  75.5K      -  4.47G  -
    rpool/dump               1.50G  58.9G  1.50G  -
    rpool/export               44K  58.9G    23K  /export
    rpool/export/home          21K  58.9G    21K  /export/home
    rpool/swap               2.06G  61.0G    16K  -
  10. Para iniciar desde un entorno de inicio alternativo, use el comando luactivate. Después de activar el entorno de inicio en un sistema basado en SPARC, utilice el comando boot - L para identificar los entornos de inicio disponibles cuando el dispositivo de inicio contenga una agrupación de almacenamiento ZFS. En el caso de iniciar desde un sistema basado en x86, identifique el entorno de inicio se debe iniciar desde el menú GRUB.

    Por ejemplo, en un sistema basado en SPARC, utilice el comando boot - L para obtener una lista con los entornos de inicio disponibles. Para iniciar desde el nuevo entorno de inicio, zfs2BE, seleccione la opción 2. A continuación, escriba el comando boot -Z que aparece.


    ok boot -L
    Executing last command: boot -L                                       
    Boot device: /pci@7c0/pci@0/pci@1/pci@0,2/LSILogic,sas@2/disk@0  File and args: -L
    1 zfsBE
    2 zfs2BE
    Select environment to boot: [ 1 - 2 ]: 2
    
    To boot the selected entry, invoke:
    boot [<root-device>] -Z rpool/ROOT/zfs2BE
    ok boot -Z rpool/ROOT/zfs2BE
    

Si desea más información sobre cómo iniciar un sistema de archivos ZFS, consulte Inicio desde un sistema de archivos raíz ZFS.


ProcedureCómo crear una agrupación raíz reflejada (posterior a la instalación)

Si no creó una agrupación raíz ZFS reflejada durante la instalación, puede crear una fácilmente después de la instalación.

Si necesita información sobre la sustitución de un disco en una agrupación raíz, consulte Cómo sustituir un disco en la agrupación raíz ZFS.

  1. Muestre el estado actual de la agrupación raíz.


    # zpool status rpool
      pool: rpool
     state: ONLINE
     scrub: none requested
    config:
    
            NAME        STATE     READ WRITE CKSUM
            rpool       ONLINE       0     0     0
              c1t0d0s0  ONLINE       0     0     0
    
    errors: No known data errors
  2. Conecte un segundo disco para configurar una agrupación raíz reflejada.


    # zpool attach rpool c1t0d0s0 c1t1d0s0
    Please be sure to invoke installboot(1M) to make 'c1t1d0s0' bootable.
    Make sure to wait until resilver is done before rebooting.
  3. Vea el estado de la agrupación raíz para confirmar que se ha completado creación.


    # zpool status rpool
      pool: rpool
     state: ONLINE
    status: One or more devices is currently being resilvered.  The pool will
            continue to function, possibly in a degraded state.
    action: Wait for the resilver to complete.
     scrub: resilver in progress for 0h1m, 24.26% done, 0h3m to go
    config:
    
            NAME          STATE     READ WRITE CKSUM
            rpool         ONLINE       0     0     0
              mirror-0    ONLINE       0     0     0
                c1t0d0s0  ONLINE       0     0     0
                c1t1d0s0  ONLINE       0     0     0  3.18G resilvered
    
    errors: No known data errors

    En la salida anterior, el proceso de creación no se ha completado. La creación se ha completado cuando se muestran mensajes parecidos al siguiente:


    scrub: resilver completed after 0h10m with 0 errors on Thu Mar 11 11:27:22 2010
  4. Aplique bloques de inicio al segundo disco cuando se haya completado la creación.


    sparc# installboot -F zfs /usr/platform/`uname -i`/lib/fs/zfs/bootblk /dev/rdsk/c1t1d0s0
    

    x86# installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c1t1d0s0
    
  5. Compruebe que puede iniciar desde el segundo disco.

  6. Configure el sistema para que se inicie automáticamente desde el disco nuevo, mediante el comando eeprom o el comando setenv desde la PROM de inicio de SPARC. O bien, vuelva a configurar el BIOS del PC.

Instalación de un sistema de archivos raíz ZFS (instalación de archivo de almacenamiento flash de Oracle Solaris)

A partir de la versión Solaris 10 10/09, puede crear un archivo de almacenamiento flash en un sistema que esté ejecutando un sistema de archivos raíz UFS o un sistema de archivos raíz ZFS. Un archivo de almacenamiento flash de una agrupación ZFS contiene toda la jerarquía de la agrupación, excepto los volúmenes de intercambio y volcado, así como cualquier conjunto de datos excluido. Los volúmenes de intercambio y volcado se crean cuando se instala el archivo de almacenamiento flash. Puede utilizar el método de instalación del archivo de almacenamiento flash como sigue:

Revise las siguientes limitaciones antes de considerar la instalación de un sistema con un archivo de almacenamiento flash ZFS:

Después de que se haya instalado al menos Solaris 10 10/09 en el sistema principal o se haya actualizado a dicha versión, puede crear un archivo de almacenamiento flash ZFS a fin de utilizarlo para instalar un sistema de destino. A continuación se expone el proceso básico:

Las siguientes opciones de archivo de almacenamiento son compatibles para instalar una agrupación raíz ZFS con un archivo de almacenamiento flash:

Después de instalar un archivo de almacenamiento flash ZFS, el sistema se configura como sigue:


Ejemplo 5–2 Instalación de un sistema con un archivo de almacenamiento flash ZFS

Después de que se haya instalado al menos Solaris 10 10/09 en el sistema principal o se haya actualizado a dicha versión, cree un archivo de almacenamiento flash de la agrupación raíz ZFS. Por ejemplo:


# flarcreate -n zfsBE zfs10upflar
Full Flash
Checking integrity...
Integrity OK.
Running precreation scripts...
Precreation scripts done.
Determining the size of the archive...
The archive will be approximately 4.94GB.
Creating the archive...
Archive creation complete.
Running postcreation scripts...
Postcreation scripts done.

Running pre-exit scripts...
Pre-exit scripts done.

En el sistema que se utilizará como servidor de instalación, cree un perfil JumpStart como lo haría para instalar cualquier sistema. Por ejemplo, el siguiente perfil se usa para instalar el archivo de almacenamiento zfs10upflar.


install_type flash_install
archive_location nfs system:/export/jump/zfs10upflar
partitioning explicit
pool rpool auto auto auto mirror c0t1d0s0 c0t0d0s0

Instalación de un sistema de archivos raíz ZFS (instalación JumpStart de Oracle Solaris)

Puede crear un perfil JumpStart para instalar un sistema de archivos raíz ZFS o un sistema de archivos raíz UFS.

Un perfil propio de ZFS debe contener la nueva palabra clave pool. La palabra clave pool instala una nueva agrupación raíz y, de forma predeterminada, se crea un nuevo entorno de inicio. Puede proporcionar el nombre del entorno de inicio y crear un conjunto de datos /var aparte con las palabras clave bootenv installbe y las opciones bename y dataset.

Para obtener información general sobre el uso de las funciones de JumpStart, consulte Guía de instalación de Oracle Solaris 10 9/10: Instalaciones JumpStart personalizadas y avanzadas.

Si va a configurar las zonas después de la instalación JumpStart de un sistema de archivos raíz ZFS y tiene previsto aplicar parches o actualizaciones al sistema, consulte Uso de Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas (Solaris 10 10/08) o Uso de Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas (al menos Solaris 10 5/09).

Palabras clave de JumpStart para ZFS

Las siguientes palabras clave se permiten en un perfil propio de ZFS:

auto

Especifica automáticamente el tamaño de los segmentos para la agrupación, el volumen de intercambio o el de volcado. Se comprueba el tamaño del disco para verificar que tenga cabida el tamaño mínimo. Si tiene cabida el tamaño mínimo, el tamaño máximo de agrupación se asigna según las limitaciones, por ejemplo el tamaño de los discos, los segmentos que se mantienen, etcétera.

Por ejemplo, si se especifica c0t0d0s0, se crea el segmento de agrupación raíz con el tamaño máximo al especificar las palabras clave all o auto. También puede especificarse un determinado tamaño para el segmento o el volumen de intercambio o volcado.

La palabra clave auto funciona de forma parecida a all si se utiliza con una agrupación raíz ZFS porque las agrupaciones carecen del concepto de espacio no utilizado.

bootenv

Identifica las características del entorno de inicio.

Utilice la siguiente sintaxis de la palabra clave bootenv para crear un entorno raíz ZFS que se pueda iniciar:

bootenv installbe bename nombre_entorno_inicio [ conjunto_datos punto_montaje]

installbe

Crea un entorno de inicio que se identifica mediante la opción bename y la entrada de nombre_entorno_inicio, y lo instala.

bename nombre_entorno_inicio

Identifica el nombre_entorno_inicio que se va a instalar.

Si bename no se utiliza con la palabra clave pool, se crea un entorno de inicio predeterminado.

dataset punto_montaje

Utilice la palabra clave opcional dataset para identificar un conjunto de datos de /var independiente del conjunto de datos raíz. El valor de punto_montaje actualmente se limita a /var. Por ejemplo, una línea de sintaxis bootenv para un conjunto de datos de /var sería similar a lo siguiente:


bootenv installbe bename zfsroot dataset /var
pool

Define la nueva agrupación raíz que se va a crear. Se debe proporcionar la siguiente sintaxis de palabra clave:


pool poolname poolsize swapsize dumpsize vdevlist
nombre_agrupación

Identifica el nombre de la agrupación que se va a crear. La agrupación se crea con el tamaño de agrupación indicado y con los dispositivos físicos especificados (vdisp). El valor poolname no debe identificar el nombre de una agrupación que exista o dicha agrupación se sobrescribirá.

tamaño_agrupación

Especifica el tamaño de la agrupación que se va a crear. El valor puede ser auto o existing. El valor auto asigna el máximo tamaño de agrupación posible según limitaciones como el tamaño de los discos, los segmentos que se mantienen, etcétera. El valor existing significa que los límites de los segmentos existentes según ese nombre se mantienen y no se sobrescriben. A menos que indique g (gigabytes), se da por sentado que el tamaño es en megabytes.

tamaño_intercambio

Especifica el tamaño del volumen de intercambio que se va a crear. El valor auto significa que se utiliza el tamaño de intercambio predeterminado. Puede especificar un tamaño con un valor tamaño. El tamaño es en MB, a menos que lo especifique por g (GB).

tamaño_volcado

Especifica el tamaño del volumen de volcado que se va a crear. El valor auto significa que se utiliza el valor tamaño de intercambio. Puede especificar un tamaño con un valor tamaño. A menos que indique g (gigabytes), se da por sentado que el tamaño es en megabytes.

lista_dispositivos_volumen

Especifica uno o más dispositivos que se utilizan para crear la agrupación. El formato de lista_dispositivos_volumen es el mismo que el del comando zpool create. Hasta el momento, las configuraciones reflejadas sólo son factibles si se especifican varios dispositivos. Los dispositivos de la lista_dispositivos_volumen deben ser segmentos de la agrupación raíz. El valor any significa que el software de instalación selecciona un dispositivo apropiado.

Puede reflejar cuantos discos quiera. Ahora bien, el tamaño de la agrupación que se crea queda determinado por el disco más pequeño de todos los discos que se especifiquen. Si desea más información sobre cómo crear agrupaciones de almacenamiento reflejadas, consulte Configuración reflejada de agrupaciones de almacenamiento.

Ejemplos de perfil JumpStart ZFS

En esta sección se proporcionan ejemplos de perfiles JumpStart propios de ZFS.

El perfil siguiente efectúa una instalación inicial especificada con install_type instalación_inicial en una agrupación nueva, identificada con pool agrupación_nueva, cuyo tamaño se establece automáticamente mediante la palabra clave auto en el tamaño de los discos especificados. De manera automática, se asigna un tamaño al área de intercambio y el dispositivo de volcado mediante la palabra clave auto en una configuración reflejada de discos (con la palabra clave mirror y los discos especificados como c0t0d0s0 y c0t1d0s0). Las características del entorno de inicio se establecen con la palabra clave bootenv para instalar un nuevo entorno de inicio con la palabra clave installbe y se crea un bename denominado s10-xx.


install_type initial_install
pool newpool auto auto auto mirror c0t0d0s0 c0t1d0s0
bootenv installbe bename s10-xx

El perfil siguiente efectúa una instalación inicial con la palabra clave install_type instalación_inicial del metaclúster SUNWCall en una agrupación nueva denominada newpool que tiene un tamaño de 80 GB. Esta agrupación se crea con un volumen de intercambio de 2 GB y un volumen de volcado de 2 GB, en una configuración reflejada de dos dispositivos suficientemente grandes como para crear una agrupación de 80 GB. La instalación no puede realizarse correctamente si esos dos dispositivos no están disponibles. Las características del entorno de inicio se establecen con la palabra clave bootenv para instalar un nuevo entorno de inicio con la palabra clave installbe y se crea un bename denominado s10–xx.


install_type initial_install
cluster SUNWCall
pool newpool 80g 2g 2g mirror any any
bootenv installbe bename s10-xx

La sintaxis de instalación de JumpStart admite la capacidad de mantener o crear un sistema de archivos UFS en un disco que también incluya una agrupación raíz ZFS. Esta configuración no se recomienda en sistemas de producción; sin embargo, es apta para una transición o migración en un sistema pequeño, por ejemplo un portátil.

Problemas de JumpStart para ZFS

Antes de comenzar una instalación JumpStart en un sistema de archivos raíz ZFS que se puede iniciar, tenga en cuenta los problemas siguientes:

Migración de un sistema de archivos raíz UFS a uno ZFS (Actualización automática de Oracle Solaris)

Las funciones de Actualización automática de Oracle Solaris relacionadas con componentes UFS siguen disponibles, y funcionan igual que en las versiones anteriores de Solaris.

También están disponibles estas funciones:

Si desea más información sobre la instalación de Oracle Solaris y las funciones de Actualización automática de Oracle Solaris, consulte Guía de instalación de Oracle Solaris 10 9/10: Actualización automática de Solaris y planificación de la actualización.

A continuación se expone el procedimiento básico para migrar un sistema de archivos raíz UFS a uno ZFS:

Si necesita información sobre los requisitos de ZFS y Actualización automática de Oracle Solaris, consulte Requisitos de instalación de Oracle Solaris y de Actualización automática de Oracle Solaris para compatibilidad con ZFS.

Problemas de migración ZFS con Actualización automática de Oracle Solaris

Antes de utilizar Actualización automática de Oracle Solaris para migrar el sistema de archivos UFS a un sistema de archivos raíz ZFS, examine la siguiente lista de problemas:

Uso de Actualización automática de Oracle Solaris para migrar a un sistema de archivos raíz ZFS (sin zonas)

Los ejemplos siguientes ilustran la manera de migrar un sistema de archivos raíz UFS a uno ZFS.

Si desea migrar o actualizar un sistema con zonas, consulte las siguientes secciones:


Ejemplo 5–3 Uso de Actualización automática de Oracle Solaris para migrar un sistema de archivos raíz UFS a uno ZFS

El ejemplo siguiente ilustra la forma de crear un entorno de inicio de un sistema de archivos raíz ZFS desde un sistema de archivos raíz UFS. El entorno de inicio actual, ufsBE, que contiene un sistema de archivos raíz UFS, se identifica mediante la opción -c. Si no incluye la opción -c opcional, el nombre del entorno de inicio actual se convierte de forma predeterminada en el nombre del dispositivo. El entorno de inicio nuevo, zfsBE, se identifica mediante la opción -n. Antes de la operación lucreate debe haber una agrupación de almacenamiento ZFS.

Para que se pueda iniciar y actualizar, la agrupación de almacenamiento ZFS se debe crear con segmentos en lugar de discos enteros. Antes de crear la agrupación, compruebe que los discos que se usarán en ella tengan una etiqueta SMI (VTOC) en lugar de una etiqueta EFI. Si se vuelve a etiquetar el disco con una etiqueta SMI, compruebe que el proceso de etiquetado no haya modificado el esquema de partición. En la mayoría de los casos, toda la capacidad del disco debe estar en los segmentos que se destinan a la agrupación raíz.


# zpool create rpool mirror c1t2d0s0 c2t1d0s0
# lucreate -c ufsBE -n zfsBE -p rpool
Analyzing system configuration.
No name for current boot environment.
Current boot environment is named <ufsBE>.
Creating initial configuration for primary boot environment <ufsBE>.
The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
PBE configuration successful: PBE name <ufsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
Comparing source boot environment <ufsBE> file systems with the file 
system(s) you specified for the new boot environment. Determining which 
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t2d0s0> is not a root device for any boot environment; cannot get BE ID.
Creating configuration for boot environment <zfsBE>.
Source boot environment is <ufsBE>.
Creating boot environment <zfsBE>.
Creating file systems on boot environment <zfsBE>.
Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>.
Populating file systems on boot environment <zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </rpool/ROOT>.
Creating compare database for file system </>.
Updating compare databases on boot environment <zfsBE>.
Making boot environment <zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-qD.mnt
updating /.alt.tmp.b-qD.mnt/platform/sun4u/boot_archive
Population of boot environment <zfsBE> successful.
Creation of boot environment <zfsBE> successful.

Tras finalizar la operación de lucreate, utilice el comando lustatus para ver el estado del entorno de inicio. Por ejemplo:


# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
ufsBE                      yes      yes    yes       no     -         
zfsBE                      yes      no     no        yes    -         

A continuación, examine la lista de componentes de ZFS. Por ejemplo:


# zfs list
NAME                   USED  AVAIL  REFER  MOUNTPOINT
rpool                 7.17G  59.8G  95.5K  /rpool
rpool/ROOT            4.66G  59.8G    21K  /rpool/ROOT
rpool/ROOT/zfsBE      4.66G  59.8G  4.66G  /
rpool/dump               2G  61.8G    16K  -
rpool/swap             517M  60.3G    16K  -

Después, utilice el comando luactivate para activar el nuevo entorno de inicio ZFS. Por ejemplo:


# luactivate zfsBE
A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>.

**********************************************************************

The target boot environment has been activated. It will be used when you 
reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You 
MUST USE either the init or the shutdown command when you reboot. If you 
do not use either init or shutdown, the system will not boot using the 
target BE.

**********************************************************************
.
.
.
Modifying boot archive service
Activation of boot environment <zfsBE> successful.

A continuación, reinicie el sistema en el entorno de inicio ZFS.


# init 6

Confirme que el entorno de inicio ZFS esté activo.


# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
ufsBE                      yes      no     no        yes    -         
zfsBE                      yes      yes    yes       no     -      

Si vuelve al entorno de inicio UFS, tendrá que volver a importar todas las agrupaciones de almacenamiento ZFS creadas en el entorno de inicio ZFS porque no están disponibles automáticamente en el entorno de inicio UFS.

Si ya no se necesita el entorno de inicio UFS, se puede eliminar con el comando ludelete.



Ejemplo 5–4 Uso de Actualización automática de Oracle Solaris para crear un entorno de inicio ZFS a partir de un entorno de inicio ZFS

El proceso de creación de un entorno de inicio ZFS desde un entorno de inicio ZFS es muy rápido porque esta operación utiliza las funciones de clonación e instantánea de ZFS. Si el entorno de inicio actual reside en la misma agrupación ZFS, se omite la opción -p.

Si tiene varios entornos de inicio ZFS, lleve a cabo el siguiente procedimiento para seleccionar el entorno de inicio desde el que desea iniciar:

Para obtener más información, consulte el Ejemplo 5–9.


# lucreate -n zfs2BE
Analyzing system configuration.
No name for current boot environment.
INFORMATION: The current boot environment is not named - assigning name <zfsBE>.
Current boot environment is named <zfsBE>.
Creating initial configuration for primary boot environment <zfsBE>.
The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
Comparing source boot environment <zfsBE> file systems with the file 
system(s) you specified for the new boot environment. Determining which 
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
Creating configuration for boot environment <zfs2BE>.
Source boot environment is <zfsBE>.
Creating boot environment <zfs2BE>.
Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>.
Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>.
Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>.
Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>.
Population of boot environment <zfs2BE> successful.
Creation of boot environment <zfs2BE> successful.


Ejemplo 5–5 Actualización del entorno de inicio ZFS (luupgrade)

El entorno de inicio ZFS se puede actualizar con paquetes o parches adicionales.

A continuación se expone el proceso básico:


# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
zfsBE                      yes      no     no        yes    -         
zfs2BE                     yes      yes    yes       no     -   
# luupgrade -p -n zfsBE -s /net/system/export/s10up/Solaris_10/Product SUNWchxge
Validating the contents of the media </net/install/export/s10up/Solaris_10/Product>.
Mounting the BE <zfsBE>.
Adding packages to the BE <zfsBE>.

Processing package instance <SUNWchxge> from </net/install/export/s10up/Solaris_10/Product>

Chelsio N110 10GE NIC Driver(sparc) 11.10.0,REV=2006.02.15.20.41
Copyright (c) 2010, Oracle and/or its affiliates. All rights reserved.

This appears to be an attempt to install the same architecture and
version of a package which is already installed.  This installation
will attempt to overwrite this package.

Using </a> as the package base directory.
## Processing package information.
## Processing system information.
   4 package pathnames are already properly installed.
## Verifying package dependencies.
## Verifying disk space requirements.
## Checking for conflicts with packages already installed.
## Checking for setuid/setgid programs.

This package contains scripts which will be executed with super-user
permission during the process of installing this package.

Do you want to continue with the installation of <SUNWchxge> [y,n,?] y
Installing Chelsio N110 10GE NIC Driver as <SUNWchxge>

## Installing part 1 of 1.
## Executing postinstall script.

Installation of <SUNWchxge> was successful.
Unmounting the BE <zfsBE>.
The package add to the BE <zfsBE> completed.

Uso de Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas (Solaris 10 10/08)

Actualización automática de Oracle Solaris se puede utilizar para migrar un sistema con zonas, pero las configuraciones admitidas son limitadas en la versión Solaris 10 10/08. Si está instalando o actualizando al menos a la versión Solaris 10 5/09, se admiten más configuraciones de zona. Para obtener más información, consulte Uso de Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas (al menos Solaris 10 5/09).

En esta sección se explica el procedimiento para configurar e instalar un sistema con zonas para poder actualizarlo y aplicarle parches mediante Actualización automática de Oracle Solaris. Si va a migrar a un sistema de archivos raíz ZFS sin zonas, consulte Uso de Actualización automática de Oracle Solaris para migrar a un sistema de archivos raíz ZFS (sin zonas).

Si va a migrar un sistema con zonas, o bien si tiene previsto configurar un sistema con zonas en la versión Solaris 10 10/08, consulte los procedimientos siguientes:

Siga los procedimientos recomendados para configurar zonas de un sistema con un sistema de archivos raíz ZFS para asegurarse de poder utilizar en él Actualización automática de Oracle Solaris.

ProcedureCómo migrar un sistema de archivos raíz UFS con raíces de zona en UFS a un sistema de archivos raíz ZFS (Solaris 10 10/08)

Este procedimiento explica cómo migrar un sistema de archivos raíz UFS con zonas instaladas a un sistema de archivos raíz ZFS y una configuración raíz de zona ZFS que se pueda actualizar o a la que se puedan aplicar parches.

En los pasos siguientes, el nombre de la agrupación de ejemplo es rpool y el del entorno de inicio actualmente activo es s10BE*.

  1. Actualice el sistema a la versión Solaris 10 10/08 si se ejecuta una versión de Solaris 10 anterior.

    Para obtener más información sobre cómo actualizar un sistema que ejecuta la versión Solaris 10, consulte Guía de instalación de Oracle Solaris 10 9/10: Actualización automática de Solaris y planificación de la actualización.

  2. Cree la agrupación raíz.


    # zpool create rpool mirror c0t1d0 c1t1d0
    

    Si necesita información sobre los requisitos de agrupaciones raíz, consulte Requisitos de instalación de Oracle Solaris y de Actualización automática de Oracle Solaris para compatibilidad con ZFS.

  3. Confirme que se hayan iniciado las zonas desde el entorno de inicio UFS.

  4. Cree el nuevo entorno de inicio ZFS.


    # lucreate -n s10BE2 -p rpool
    

    Este comando establece conjuntos de datos en la agrupación raíz del nuevo entorno de inicio y copia el entorno de inicio actual (zonas incluidas) en esos conjuntos de datos.

  5. Active el nuevo entorno de inicio ZFS.


    # luactivate s10BE2
    

    El sistema ya ejecuta un sistema de archivos raíz ZFS; sin embargo, las raíces de zona de UFS siguen estando en el sistema de archivos raíz UFS. Los pasos siguientes son necesarios para migrar por completo las zonas UFS a una configuración ZFS compatible.

  6. Reinicie el sistema.


    # init 6
    
  7. Migre las zonas a un entorno de inicio ZFS.

    1. Inicie las zonas.

    2. Cree otro entorno de inicio en la agrupación.


      # lucreate s10BE3
      
    3. Active el nuevo entorno de inicio.


      # luactivate s10BE3
      
    4. Reinicie el sistema.


      # init 6
      

      En este paso se verifica que se hayan iniciado el entorno de inicio ZFS y las zonas.

  8. Solucione los posibles problemas de punto de montaje.

    Debido a un error en Actualización automática de Oracle Solaris, el inicio del entorno de inicio no activo podría fallar porque un conjunto de datos ZFS o el conjunto de datos ZFS de una zona del entorno de inicio tiene un punto de montaje no válido.

    1. Examine la salida de zfs list.

      Busque puntos de montaje temporales incorrectos. Por ejemplo:


      # zfs list -r -o name,mountpoint rpool/ROOT/s10u6
      
      NAME                               MOUNTPOINT
      rpool/ROOT/s10u6                   /.alt.tmp.b-VP.mnt/
      rpool/ROOT/s10u6/zones             /.alt.tmp.b-VP.mnt//zones
      rpool/ROOT/s10u6/zones/zonerootA   /.alt.tmp.b-VP.mnt/zones/zonerootA

      El punto de montaje del entorno de inicio ZFS (rpool/ROOT/s10u6) debe ser /.

    2. Restablezca los puntos de montaje del entorno de inicio ZFS y sus conjuntos de datos.

      Por ejemplo:


      # zfs inherit -r mountpoint rpool/ROOT/s10u6
      # zfs set mountpoint=/ rpool/ROOT/s10u6
      
    3. Reinicie el sistema.

      Si se presenta la opción para iniciar un determinado entorno de inicio, en el menú GRUB o el indicador de OpenBoot PROM, seleccione el entorno de inicio cuyos puntos de montaje se han acabado de corregir.

ProcedureCómo configurar un sistema de archivos raíz ZFS con raíces de zona en ZFS (Solaris 10 10/08)

Este procedimiento explica cómo configurar un sistema de archivos raíz ZFS y una configuración raíz de zona ZFS que se pueda actualizar o a la que se pueda aplicar parches. En esta configuración, las raíces de zona ZFS se crean como conjuntos de datos ZFS.

En los pasos siguientes, el nombre de la agrupación de ejemplo es rpool y el del entorno de inicio actualmente activo es s10BE. Cualquier nombre de conjunto de datos legal es valido como nombre para el conjunto de datos de zonas. En el ejemplo siguiente, el nombre del conjunto de datos de las zonas es zones.

  1. Instale el sistema con una raíz ZFS, ya sea con el método del instalador de texto interactivo de Solaris o con el de la instalación Solaris JumpStart.

    Si desea información sobre cómo instalar un sistema de archivos raíz ZFS con el método de instalación inicial o con Solaris JumpStart, consulte Instalación de un sistema de archivos raíz ZFS (instalación inicial) o Instalación de un sistema de archivos raíz ZFS (instalación JumpStart de Oracle Solaris).

  2. Inicie el sistema desde la agrupación raíz recién creada.

  3. Cree un conjunto de datos para agrupar las raíces de zona.

    Por ejemplo:


    # zfs create -o canmount=noauto rpool/ROOT/s10BE/zones
    

    El establecimiento del valor noauto para la propiedad canmount impide que otra acción distinta de la explícita de Actualización automática de Oracle Solaris y el código de inicio del sistema monte el conjunto de datos.

  4. Monte el conjunto de datos de zonas recién creado.


    # zfs mount rpool/ROOT/s10BE/zones
    

    El conjunto de datos se monta en /zones.

  5. Cree y monte un conjunto de datos para cada raíz de zona.


    # zfs create -o canmount=noauto rpool/ROOT/s10BE/zones/zonerootA
    # zfs mount rpool/ROOT/s10BE/zones/zonerootA
    
  6. Establezca los permisos pertinentes en el directorio raíz de zona.


    # chmod 700 /zones/zonerootA
    
  7. Configure la zona estableciendo la ruta de zona como se indica a continuación:


    # zonecfg -z zoneA
        zoneA: No such zone configured
        Use 'create' to begin configuring a new zone.
        zonecfg:zoneA> create
        zonecfg:zoneA> set zonepath=/zones/zonerootA
    

    Puede habilitar las zonas para que se inicien automáticamente cuando se inicie el sistema mediante la sintaxis siguiente:


    zonecfg:zoneA> set autoboot=true
    
  8. Instale la zona.


    # zoneadm -z zoneA install
    
  9. Inicie la zona.


    # zoneadm -z zoneA boot
    

ProcedureCómo actualizar o aplicar parches a un sistema de archivos raíz ZFS con raíces de zona en ZFS (Solaris 10 10/08)

Utilice este procedimiento cuando deba actualizar o aplicar parches a un sistema de archivos raíz ZFS con raíces de zona en ZFS. Las actualizaciones pueden consistir en una actualización del sistema o la aplicación de parches.

En los pasos siguientes, newBE es el nombre de ejemplo del entorno de inicio que se actualiza o al que se aplican parches.

  1. Cree el entorno de inicio para actualizar o al que aplicar parches.


    # lucreate -n newBE
    

    Se clona el entorno de inicio que ya existe, incluidas todas las zonas. Se crea un conjunto de datos para cada conjunto de datos del entorno de inicio original. Los nuevos conjuntos de datos se crean en la misma agrupación que la agrupación raíz actual.

  2. Seleccione una de las opciones siguientes para actualizar el sistema o aplicar parches al nuevo entorno de inicio:

    • Actualice el sistema.


      # luupgrade -u -n newBE -s /net/install/export/s10u7/latest
      

      La opción -s especifica la ubicación de un medio de instalación de Solaris.

    • Aplique parches al nuevo entorno de inicio.


       # luupgrade -t -n newBE -t -s /patchdir 139147-02 157347-14
      
  3. Active el nuevo entorno de inicio.


    # luactivate newBE
    
  4. Inicie desde el entorno de inicio recién activado.


    # init 6
    
  5. Solucione los posibles problemas de punto de montaje.

    Debido a un error en la función de Actualización automática de Oracle Solaris, el inicio del entorno de inicio no activo podría fallar porque un conjunto de datos ZFS o el conjunto de datos ZFS de una zona del entorno de inicio tiene un punto de montaje no válido.

    1. Examine la salida de zfs list.

      Busque puntos de montaje temporales incorrectos. Por ejemplo:


      # zfs list -r -o name,mountpoint rpool/ROOT/newBE
      
      NAME                               MOUNTPOINT
      rpool/ROOT/newBE                   /.alt.tmp.b-VP.mnt/
      rpool/ROOT/newBE/zones             /.alt.tmp.b-VP.mnt/zones
      rpool/ROOT/newBE/zones/zonerootA   /.alt.tmp.b-VP.mnt/zones/zonerootA

      El punto de montaje del entorno de inicio ZFS raíz (rpool/ROOT/newBE) debe ser /.

    2. Restablezca los puntos de montaje del entorno de inicio ZFS y sus conjuntos de datos.

      Por ejemplo:


      # zfs inherit -r mountpoint rpool/ROOT/newBE
      # zfs set mountpoint=/ rpool/ROOT/newBE
      
    3. Reinicie el sistema.

      Si se presenta la opción para iniciar un determinado entorno de inicio, en el menú GRUB o el indicador de OpenBoot PROM, seleccione el entorno de inicio cuyos puntos de montaje se han acabado de corregir.

Uso de Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas (al menos Solaris 10 5/09)

Puede usar la función Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas a partir de la versión Solaris 10 10/08. Actualización automática admite las configuraciones de zona completas y dispersas adicionales a partir de la versión Solaris 10 5/09.

En esta sección se describe cómo configurar un sistema con zonas para que se pueda aplicar un parche o una actualización con Actualización automática de Oracle Solaris a partir de la versión Solaris 10 5/09. Si va a migrar a un sistema de archivos raíz ZFS sin zonas, consulte Uso de Actualización automática de Oracle Solaris para migrar a un sistema de archivos raíz ZFS (sin zonas).

Tenga en cuenta los puntos siguientes cuando se utilice Actualización automática de Oracle Solaris con ZFS y zonas a partir de la versión Solaris 10 5/09:

Si está migrando o configurando un sistema con zonas a partir de la versión Solaris 10 5/09, revise la siguiente información:

ZFS admitido con información de configuración de raíces de zona (al menos Solaris 10 5/09)

Revise las configuraciones de zona admitidas antes de usar la función Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas.

ProcedureCómo crear un entorno de inicio ZFS con un sistema de archivos raíz ZFS y una raíz de zona (al menos Solaris 10 5/09)

Utilice este procedimiento después de haber realizado una instalación inicial de, al menos, la versión Solaris 10 5/09 para crear un sistema de archivos raíz ZFS. Utilice este procedimiento después de utilizar la función luupgrade para la actualización de un sistema de archivos raíz ZFS al menos a la versión Solaris 10 5/09. Se puede aplicar una actualización o un parche a un entorno de inicio ZFS que se cree mediante este procedimiento.

En los pasos que aparecen a continuación, el sistema Oracle Solaris 10 9/10 de ejemplo tiene un sistema de archivos raíz ZFS y un conjunto de datos raíz de zona en /rpool/zones. Se crea un entorno de inicio ZFS denominado zfs2BE al que se puede aplicar una actualización o un parche.

  1. Revise los sistemas de archivos ZFS existentes.


    # zfs list
    NAME                   USED  AVAIL  REFER  MOUNTPOINT
    rpool                 7.26G  59.7G    98K  /rpool
    rpool/ROOT            4.64G  59.7G    21K  legacy
    rpool/ROOT/zfsBE      4.64G  59.7G  4.64G  /
    rpool/dump            1.00G  59.7G  1.00G  -
    rpool/export            44K  59.7G    23K  /export
    rpool/export/home       21K  59.7G    21K  /export/home
    rpool/swap               1G  60.7G    16K  -
    rpool/zones            633M  59.7G   633M  /rpool/zones
  2. Asegúrese de que las zonas se hayan instalado e iniciado.


    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       2 zfszone          running    /rpool/zones                   native   shared
  3. Cree el entorno de inicio ZFS.


    # lucreate -n zfs2BE
    Analyzing system configuration.
    No name for current boot environment.
    INFORMATION: The current boot environment is not named - assigning name <zfsBE>.
    Current boot environment is named <zfsBE>.
    Creating initial configuration for primary boot environment <zfsBE>.
    The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
    PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
    Comparing source boot environment <zfsBE> file systems with the file 
    system(s) you specified for the new boot environment. Determining which 
    file systems should be in the new boot environment.
    Updating boot environment description database on all BEs.
    Updating system configuration files.
    Creating configuration for boot environment <zfs2BE>.
    Source boot environment is <zfsBE>.
    Creating boot environment <zfs2BE>.
    Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>.
    Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>.
    Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>.
    Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>.
    Population of boot environment <zfs2BE> successful.
    Creation of boot environment <zfs2BE> successful.
  4. Active el entorno de inicio ZFS.


    # lustatus
    Boot Environment           Is       Active Active    Can    Copy      
    Name                       Complete Now    On Reboot Delete Status    
    -------------------------- -------- ------ --------- ------ ----------
    zfsBE                      yes      yes    yes       no     -         
    zfs2BE                     yes      no     no        yes    -         
    # luactivate zfs2BE
    A Live Upgrade Sync operation will be performed on startup of boot environment <zfs2BE>.
    .
    .
    .
    # init 6
    
  5. Confirme que las zonas y los sistemas de archivos ZFS se creen en el nuevo entorno de inicio.


    # zfs list
    NAME                               USED  AVAIL  REFER  MOUNTPOINT
    rpool                             7.38G  59.6G    98K  /rpool
    rpool/ROOT                        4.72G  59.6G    21K  legacy
    rpool/ROOT/zfs2BE                 4.72G  59.6G  4.64G  /
    rpool/ROOT/zfs2BE@zfs2BE          74.0M      -  4.64G  -
    rpool/ROOT/zfsBE                  5.45M  59.6G  4.64G  /.alt.zfsBE
    rpool/dump                        1.00G  59.6G  1.00G  -
    rpool/export                        44K  59.6G    23K  /export
    rpool/export/home                   21K  59.6G    21K  /export/home
    rpool/swap                           1G  60.6G    16K  -
    rpool/zones                       17.2M  59.6G   633M  /rpool/zones
    rpool/zones-zfsBE                  653M  59.6G   633M  /rpool/zones-zfsBE
    rpool/zones-zfsBE@zfs2BE          19.9M      -   633M  -
    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       - zfszone          installed  /rpool/zones                   native   shared

ProcedureCómo aplicar un parche o una actualización a un sistema de archivos raíz ZFS con raíces de zona (al menos Solaris 10 5/09)

Utilice este procedimiento cuando deba aplicar parches o actualizaciones a un sistema de archivos raíz ZFS con raíces de zona en la versión Solaris 10 5/09. Las actualizaciones pueden consistir en una actualización del sistema o la aplicación de parches.

En los pasos siguientes, zfs2BE es el nombre de ejemplo del entorno de inicio al que se ha aplicado una actualización o parche.

  1. Revise los sistemas de archivos ZFS existentes.


    # zfs list
    NAME                               USED  AVAIL  REFER  MOUNTPOINT
    rpool                             7.38G  59.6G   100K  /rpool
    rpool/ROOT                        4.72G  59.6G    21K  legacy
    rpool/ROOT/zfs2BE                 4.72G  59.6G  4.64G  /
    rpool/ROOT/zfs2BE@zfs2BE          75.0M      -  4.64G  -
    rpool/ROOT/zfsBE                  5.46M  59.6G  4.64G  /
    rpool/dump                        1.00G  59.6G  1.00G  -
    rpool/export                        44K  59.6G    23K  /export
    rpool/export/home                   21K  59.6G    21K  /export/home
    rpool/swap                           1G  60.6G    16K  -
    rpool/zones                       22.9M  59.6G   637M  /rpool/zones
    rpool/zones-zfsBE                  653M  59.6G   633M  /rpool/zones-zfsBE
    rpool/zones-zfsBE@zfs2BE          20.0M      -   633M  -
  2. Asegúrese de que las zonas se hayan instalado e iniciado.


    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       5 zfszone          running    /rpool/zones                   native   shared
  3. Cree el entorno de inicio ZFS al que aplicar actualizaciones o parches.


    # lucreate -n zfs2BE
    Analyzing system configuration.
    Comparing source boot environment <zfsBE> file systems with the file 
    system(s) you specified for the new boot environment. Determining which 
    file systems should be in the new boot environment.
    Updating boot environment description database on all BEs.
    Updating system configuration files.
    Creating configuration for boot environment <zfs2BE>.
    Source boot environment is <zfsBE>.
    Creating boot environment <zfs2BE>.
    Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>.
    Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>.
    Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>.
    Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>.
    Creating snapshot for <rpool/zones> on <rpool/zones@zfs10092BE>.
    Creating clone for <rpool/zones@zfs2BE> on <rpool/zones-zfs2BE>.
    Population of boot environment <zfs2BE> successful.
    Creation of boot environment <zfs2BE> successful.
  4. Seleccione una de las opciones siguientes para actualizar el sistema o aplicar parches al nuevo entorno de inicio:

    • Actualice el sistema.


      # luupgrade -u -n zfs2BE -s /net/install/export/s10up/latest
      

      La opción -s especifica la ubicación de un medio de instalación de Solaris.

      Este proceso puede durar mucho tiempo.

      Para obtener un ejemplo completo del proceso luupgrade, consulte el Ejemplo 5–6.

    • Aplique parches al nuevo entorno de inicio.


      # luupgrade -t -n zfs2BE -t -s /patchdir patch-id-02 patch-id-04
      
  5. Active el nuevo entorno de inicio.


    # lustatus
    Boot Environment           Is       Active Active    Can    Copy      
    Name                       Complete Now    On Reboot Delete Status    
    -------------------------- -------- ------ --------- ------ ----------
    zfsBE                      yes      yes    yes       no     -         
    zfs2BE                     yes      no     no        yes    -    
    # luactivate zfs2BE
    A Live Upgrade Sync operation will be performed on startup of boot environment <zfs2BE>.
    .
    .
    .
  6. Inicie desde el entorno de inicio recién activado.


    # init 6
    

Ejemplo 5–6 Actualización de un sistema de archivos raíz ZFS con una raíz de zona a un sistema de archivos raíz ZFS de Oracle Solaris 9 10/10

En este ejemplo, un entorno de inicio ZFS (zfsBE), creado en un sistema Solaris 10 10/09 con un sistema de archivos raíz ZFS y raíz de zona en una agrupación no raíz, se actualiza a la versión Oracle Solaris 10 9/10. Este proceso puede durar mucho tiempo. A continuación, el entorno de inicio actualizado (zfs2BE) se activa. Asegúrese de que las zonas se hayan instalado e iniciado antes de intentar la actualización.

En este ejemplo, la agrupación zonepool, el conjunto de datos /zonepool/zones, así como la zona zfszone se crean de este modo:


# zpool create zonepool mirror c2t1d0 c2t5d0
# zfs create zonepool/zones
# chmod 700 zonepool/zones
# zonecfg -z zfszone
zfszone: No such zone configured
Use 'create' to begin configuring a new zone.
zonecfg:zfszone> create
zonecfg:zfszone> set zonepath=/zonepool/zones
zonecfg:zfszone> verify
zonecfg:zfszone> exit
# zoneadm -z zfszone install
cannot create ZFS dataset zonepool/zones: dataset already exists
Preparing to install zone <zfszone>.
Creating list of files to copy from the global zone.
Copying <8960> files to the zone.
.
.
.

# zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   2 zfszone          running    /zonepool/zones                native   shared

# lucreate -n zfsBE
.
.
.
# luupgrade -u -n zfsBE -s /net/install/export/s10up/latest
40410 blocks
miniroot filesystem is <lofs>
Mounting miniroot at </net/system/export/s10up/latest/Solaris_10/Tools/Boot>
Validating the contents of the media </net/system/export/s10up/latest>.
The media is a standard Solaris media.
The media contains an operating system upgrade image.
The media contains <Solaris> version <10>.
Constructing upgrade profile to use.
Locating the operating system upgrade program.
Checking for existence of previously scheduled Live Upgrade requests.
Creating upgrade profile for BE <zfsBE>.
Determining packages to install or upgrade for BE <zfsBE>.
Performing the operating system upgrade of the BE <zfsBE>.
CAUTION: Interrupting this process may leave the boot environment unstable 
or unbootable.
Upgrading Solaris: 100% completed
Installation of the packages from this media is complete.
Updating package information on boot environment <zfsBE>.
Package information successfully updated on boot environment <zfsBE>.
Adding operating system patches to the BE <zfsBE>.
The operating system patch installation is complete.
INFORMATION: The file </var/sadm/system/logs/upgrade_log> on boot 
environment <zfsBE> contains a log of the upgrade operation.
INFORMATION: The file </var/sadm/system/data/upgrade_cleanup> on boot 
environment <zfsBE> contains a log of cleanup operations required.
INFORMATION: Review the files listed above. Remember that all of the files 
are located on boot environment <zfsBE>. Before you activate boot 
environment <zfsBE>, determine if any additional system maintenance is 
required or if additional media of the software distribution must be 
installed.
The Solaris upgrade of the boot environment <zfsBE> is complete.
Installing failsafe
Failsafe install is complete.
# luactivate zfsBE
# init 6
# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
zfsBE                      yes      no     no        yes    -         
zfs2BE                     yes      yes    yes       no     -         
# zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   - zfszone          installed  /zonepool/zones                native   shared

ProcedureCómo migrar un sistema de archivos raíz UFS con una raíz de zona a un sistema de archivos raíz ZFS (al menos Solaris 10 5/09)

Utilice este procedimiento para migrar un sistema con un sistema de archivos raíz UFS y una raíz de zona al menos a la versión Solaris 10 5/09. A continuación, utilice Actualización automática de Oracle Solaris para crear un entorno de inicio ZFS.

En los pasos que aparecen a continuación, el nombre del entorno de inicio UFS de ejemplo es c0t1d0s0, la raíz de zona UFS es zonepool/zfszone y el entorno de inicio raíz es zfsBE.

  1. Actualice el sistema a la versión Solaris 10 5/09 si se ejecuta una versión de Solaris 10 anterior.

    Para obtener información sobre cómo actualizar un sistema que ejecuta la versión Solaris 10, consulte Guía de instalación de Oracle Solaris 10 9/10: Actualización automática de Solaris y planificación de la actualización.

  2. Cree la agrupación raíz.

    Si necesita información sobre los requisitos de agrupaciones raíz, consulte Requisitos de instalación de Oracle Solaris y de Actualización automática de Oracle Solaris para compatibilidad con ZFS.

  3. Confirme que se hayan iniciado las zonas desde el entorno de inicio UFS.


    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       2 zfszone          running    /zonepool/zones                native   shared
  4. Cree el nuevo entorno de inicio ZFS.


    # lucreate -c c1t1d0s0 -n zfsBE -p rpool
    

    Este comando establece conjuntos de datos en la agrupación raíz del nuevo entorno de inicio y copia el entorno de inicio actual (zonas incluidas) en esos conjuntos de datos.

  5. Active el nuevo entorno de inicio ZFS.


    # lustatus
    Boot Environment           Is       Active Active    Can    Copy      
    Name                       Complete Now    On Reboot Delete Status    
    -------------------------- -------- ------ --------- ------ ----------
    c1t1d0s0                   yes      no     no        yes    -         
    zfsBE                      yes      yes    yes       no     -         #
    luactivate zfsBE       
    A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>.
    .
    .
    .
  6. Reinicie el sistema.


    # init 6
    
  7. Confirme que las zonas y los sistemas de archivos ZFS se creen en el nuevo entorno de inicio.


    # zfs list
    NAME                                USED  AVAIL  REFER  MOUNTPOINT
    rpool                              6.17G  60.8G    98K  /rpool
    rpool/ROOT                         4.67G  60.8G    21K  /rpool/ROOT
    rpool/ROOT/zfsBE                   4.67G  60.8G  4.67G  /
    rpool/dump                         1.00G  60.8G  1.00G  -
    rpool/swap                          517M  61.3G    16K  -
    zonepool                            634M  7.62G    24K  /zonepool
    zonepool/zones                      270K  7.62G   633M  /zonepool/zones
    zonepool/zones-c1t1d0s0             634M  7.62G   633M  /zonepool/zones-c1t1d0s0
    zonepool/zones-c1t1d0s0@zfsBE       262K      -   633M  -
    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       - zfszone          installed  /zonepool/zones                native   shared

Ejemplo 5–7 Migración de un sistema de archivos raíz UFS con raíz de zona a un sistema de archivos raíz ZFS

En este ejemplo, un sistema Oracle Solaris 10 9/10 con un sistema de archivos raíz UFS y una raíz de zona (/uzone/ufszone), así como una agrupación que no es raíz ZFS (pool) y una raíz de zona (/pool/zfszone) se migra a un sistema de archivos raíz ZFS. Asegúrese de que la agrupación raíz ZFS se haya creado y de que las zonas se hayan instalado e iniciado antes de intentar la migración.


# zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   2 ufszone          running    /uzone/ufszone                 native   shared
   3 zfszone          running    /pool/zones/zfszone            native   shared

# lucreate -c ufsBE -n zfsBE -p rpool
Analyzing system configuration.
No name for current boot environment.
Current boot environment is named <zfsBE>.
Creating initial configuration for primary boot environment <zfsBE>.
The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
PBE configuration successful: PBE name <ufsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
Comparing source boot environment <ufsBE> file systems with the file 
system(s) you specified for the new boot environment. Determining which 
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID.
Creating configuration for boot environment <zfsBE>.
Source boot environment is <ufsBE>.
Creating boot environment <zfsBE>.
Creating file systems on boot environment <zfsBE>.
Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>.
Populating file systems on boot environment <zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Copying root of zone <ufszone> to </.alt.tmp.b-EYd.mnt/uzone/ufszone>.
Creating snapshot for <pool/zones/zfszone> on <pool/zones/zfszone@zfsBE>.
Creating clone for <pool/zones/zfszone@zfsBE> on <pool/zones/zfszone-zfsBE>.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </rpool/ROOT>.
Creating compare database for file system </>.
Updating compare databases on boot environment <zfsBE>.
Making boot environment <zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-DLd.mnt
updating /.alt.tmp.b-DLd.mnt/platform/sun4u/boot_archive
Population of boot environment <zfsBE> successful.
Creation of boot environment <zfsBE> successful.
# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
ufsBE                      yes      yes    yes       no     -         
zfsBE                      yes      no     no        yes    -         
# luactivate zfsBE    
.
.
.
# init 6
.
.
.
# zfs list
NAME                                    USED  AVAIL  REFER  MOUNTPOINT
pool                                    628M  66.3G    19K  /pool
pool/zones                              628M  66.3G    20K  /pool/zones
pool/zones/zfszone                     75.5K  66.3G   627M  /pool/zones/zfszone
pool/zones/zfszone-ufsBE                628M  66.3G   627M  /pool/zones/zfszone-ufsBE
pool/zones/zfszone-ufsBE@zfsBE           98K      -   627M  -
rpool                                  7.76G  59.2G    95K  /rpool
rpool/ROOT                             5.25G  59.2G    18K  /rpool/ROOT
rpool/ROOT/zfsBE                       5.25G  59.2G  5.25G  /
rpool/dump                             2.00G  59.2G  2.00G  -
rpool/swap                              517M  59.7G    16K  -
# zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   - ufszone          installed  /uzone/ufszone                 native   shared
   - zfszone          installed  /pool/zones/zfszone            native   shared

Compatibilidad de ZFS con dispositivos de intercambio y volcado

Durante la instalación inicial de un sistema operativo Solaris o después de la ejecución de Actualización automática de Oracle Solaris desde un sistema de archivos UFS, se crea un área de intercambio en un volumen ZFS de la agrupación raíz ZFS. Por ejemplo:


# swap -l
swapfile                  dev  swaplo  blocks   free
/dev/zvol/dsk/rpool/swap 256,1      16 4194288 4194288

Durante la instalación inicial de un sistema operativo Solaris o la ejecución de Actualización automática de Oracle Solaris desde un sistema de archivos UFS, se crea un dispositivo de volcado en un volumen ZFS de la agrupación raíz ZFS. En general, un dispositivo de volcado no requiere administración porque se configura automáticamente en el momento de la instalación. Por ejemplo:


# dumpadm
      Dump content: kernel pages
       Dump device: /dev/zvol/dsk/rpool/dump (dedicated)
Savecore directory: /var/crash/t2000
  Savecore enabled: yes
   Save compressed: on

Si inhabilita y elimina el dispositivo de volcado, tendrá que habilitarlo con el comando dumpadm después de que se haya vuelto a crear. En la mayoría de los casos, sólo tendrá que ajustar el tamaño del dispositivo de volcado mediante el comando zfs.

Para obtener información sobre el tamaño de los volúmenes de intercambio y volcado creados por los programas de instalación, consulte Requisitos de instalación de Oracle Solaris y de Actualización automática de Oracle Solaris para compatibilidad con ZFS.

Tanto el tamaño del volumen de intercambio como el tamaño del volumen de volcado se pueden ajustar durante y después de la instalación. Para obtener más información, consulte Ajuste del tamaño de los dispositivos de intercambio y volcado ZFS.

Al trabajar con dispositivos de intercambio y volcado ZFS, debe tener en cuenta los problemas siguientes:

Consulte las secciones siguientes para obtener más información:

Ajuste del tamaño de los dispositivos de intercambio y volcado ZFS

Debido a las diferencias en la forma en que una instalación raíz ZFS determina el tamaño de los dispositivos de intercambio y volcado, podría ser que tuviera que ajustar el tamaño de dichos dispositivos antes, durante o después de la instalación.

Resolución de problemas de dispositivos de volcado ZFS

Revise los siguientes elementos si tiene problemas al capturar un volcado de bloqueo del sistema o al cambiar el tamaño del dispositivo de volcado.

Inicio desde un sistema de archivos raíz ZFS

Tanto los sistemas basados en SPARC como en x86 utilizan el nuevo estilo de inicio con un archivo de almacenamiento de inicio, que consiste en una imagen de sistema de archivos con los archivos que se necesitan para iniciar. Si se inicia un sistema desde un sistema de archivos raíz ZFS, los nombres de ruta del archivo de almacenamiento de inicio y del archivo de núcleo se resuelven en el sistema de archivos raíz que se selecciona para iniciar.

Cuando se inicia un sistema para la instalación, se usa un disco RAM para el sistema de archivos raíz durante todo el proceso de instalación.

El inicio desde un sistema de archivos ZFS es diferente de un sistema de archivos UFS porque, con ZFS, el especificador de dispositivos de inicio identifica una agrupación de almacenamiento, no un solo sistema de archivos raíz. Una agrupación de almacenamiento puede contener varios conjuntos de datos que se pueden iniciar o sistemas de archivos raíz ZFS. Si se inicia desde ZFS, debe especificar un dispositivo de inicio y un sistema de archivos raíz en la agrupación identificada por el dispositivo de inicio.

De forma predeterminada, el conjunto de datos seleccionado para iniciar es el que queda identificado por la propiedad bootfs de la agrupación. Esta selección predeterminada se puede modificar optando por un conjunto de datos alternativo que se puede iniciar en el comando boot -Z.

Inicio desde un disco alternativo en una agrupación raíz ZFS reflejada

Puede crear una agrupación raíz ZFS reflejada al instalar el sistema; también puede conectar un disco para crear una agrupación raíz ZFS reflejada tras la instalación. Para más información, consulte:

Revise los siguientes problemas conocidos relativos a agrupaciones raíz ZFS reflejadas:

SPARC: inicio desde un sistema de archivos raíz ZFS

En un sistema basado en SPARC con varios entornos de inicio ZFS, puede iniciar desde cualquier entorno de inicio mediante el comando luactivate.

Durante el proceso de instalación del sistema operativo Solaris y la ejecución de Actualización automática de Oracle Solaris, el sistema de archivos raíz ZFS se designa automáticamente mediante la propiedad bootfs.

En una agrupación puede haber varios conjuntos de datos que se pueden iniciar. De forma predeterminada, la entrada del conjunto de datos que se puede iniciar del archivo /nombre_agrupación/boot/menu.lst se identifica mediante la propiedad bootfs de la agrupación. Ahora bien, una entrada de menu.lstpuede contener un comando bootfs, que especifica un conjunto de datos alternativo de la agrupación. De esta manera, el archivo menu.lst puede contener entradas de varios sistemas de archivos raíz dentro de la agrupación.

Si un sistema se instala con un sistema de archivos raíz ZFS o se migra a un sistema de archivos raíz ZFS, al archivo menu.lst se le agrega una entrada similar a la siguiente:


title zfsBE
bootfs rpool/ROOT/zfsBE
title zfs2BE
bootfs rpool/ROOT/zfs2BE

Al crearse un entorno de inicio, se actualiza automáticamente el archivo menu.lst.

En un sistema basado en SPARC hay dos nuevas opciones de inicio:


Ejemplo 5–8 SPARC: inicio desde un determinado entorno de inicio ZFS

Si dispone de varios entornos de inicio ZFS en una agrupación de almacenamiento ZFS en el dispositivo de inicio del sistema, puede utilizar el comando luactivate para designar un entorno de inicio predeterminado.

Por ejemplo, los siguientes entornos de inicio ZFS están disponibles como se describe en la salida de lustatus:


# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
zfsBE                      yes      no     no        yes    -         
zfs2BE                     yes      yes    yes       no     -

Si tiene varios entornos de inicio ZFS en un sistema basado en SPARC, puede utilizar el comando boot -L para iniciar desde un entorno de inicio que sea diferente del predeterminado. Sin embargo, un entorno de inicio que se inicia desde una sesión boot -L no se restablece como el predeterminado, ni se actualiza la propiedad bootfs. Si desea que el entorno de inicio que se inicia desde una sesión boot -L sea el predeterminado, debe activarlo con el comando luactivate.

Por ejemplo:


ok boot -L
Rebooting with command: boot -L
Boot device: /pci@7c0/pci@0/pci@1/pci@0,2/LSILogic,sas@2/disk@0  File and args: -L

1 zfsBE
2 zfs2BE
Select environment to boot: [ 1 - 2 ]: 1
To boot the selected entry, invoke:
boot [<root-device>] -Z rpool/ROOT/zfsBE

Program terminated
ok boot -Z rpool/ROOT/zfsBE


Ejemplo 5–9 SPARC: inicio de un sistema de archivos ZFS en modo a prueba de fallos

En un sistema basado en SPARC, puede iniciar desde el archivo de almacenamiento a prueba de fallos ubicado en /platform/`uname -i`/failsafe como se muestra a continuación:


ok boot -F failsafe

Para iniciar un archivo de almacenamiento a prueba de fallos desde un determinado conjunto de datos ZFS que se puede iniciar, utilice una sintaxis similar a la siguiente:


ok boot -Z rpool/ROOT/zfsBE -F failsafe

x86: inicio desde un sistema de archivos raíz ZFS

Las entradas siguientes se agregan al archivo /pool-name /boot/grub/menu.lst durante el proceso de instalación o al ejecutarse Actualización automática de Oracle Solaris para iniciar ZFS de forma automática:


title Solaris 10 9/10  X86
findroot (rootfs0,0,a)
kernel$ /platform/i86pc/multiboot -B $ZFS-BOOTFS
module /platform/i86pc/boot_archive
title Solaris failsafe
findroot (rootfs0,0,a)
kernel /boot/multiboot kernel/unix -s -B console=ttya
module /boot/x86.miniroot-safe

Si el dispositivo que GRUB identifica como dispositivo de inicio contiene una agrupación de almacenamiento ZFS, el archivo menu.lst se utiliza para crear el menú GRUB.

En el caso de un sistema basado en x86 con varios entornos de inicio ZFS, el entorno de inicio se puede seleccionar en el menú GRUB. Si el sistema de archivos raíz correspondiente a esta entrada de menú es un conjunto de datos ZFS, se agrega la opción siguiente:


-B $ZFS-BOOTFS

Ejemplo 5–10 x86: inicio de un sistema de archivos ZFS

Si se inicia un sistema desde un sistema de archivos ZFS, el parámetro -B $ZFS-BOOTFS especifica el dispositivo raíz en la línea kernel o module en la entrada del menú GRUB. El GRUB pasa al núcleo el valor de este parámetro, parecido a todos los parámetros que especifica la opción -B. Por ejemplo:



title Solaris 10 9/10  X86
findroot (rootfs0,0,a)
kernel$ /platform/i86pc/multiboot -B $ZFS-BOOTFS
module /platform/i86pc/boot_archive
title Solaris failsafe
findroot (rootfs0,0,a)
kernel /boot/multiboot kernel/unix -s -B console=ttya
module /boot/x86.miniroot-safe

Ejemplo 5–11 x86: inicio de un sistema de archivos ZFS en modo a prueba de fallos

El archivo de almacenamiento a prueba de fallos de x86 es /boot/x86.miniroot-safe y se puede iniciar seleccionando la entrada a prueba de fallos de Solaris en el menú GRUB. Por ejemplo:


title Solaris failsafe
findroot (rootfs0,0,a)
kernel /boot/multiboot kernel/unix -s -B console=ttya
module /boot/x86.miniroot-safe

Resolución de problemas de punto de montaje ZFS que impiden un inicio correcto (Solaris 10 10/08)

El uso del comando luactivate es la mejor forma de cambiar el entorno de inicio activo. Si el entorno de inicio activo no puede iniciarse, debido a un parche incorrecto o a un error de configuración, la única forma de iniciar otro entorno de inicio es seleccionar dicho entorno en el momento de iniciar. Puede seleccionar un entorno de inicio alternativo en el menú GRUB en un sistema basado en x86, o iniciarlo explícitamente desde la PROM de un sistema basado en SPARC.

Debido a un error en Actualización automática de Oracle Solaris en la versión Solaris 10 10/08, el inicio del entorno de inicio no activo podría fallar porque un conjunto de datos ZFS o el conjunto de datos ZFS de una zona del entorno de inicio tiene un punto de montaje no válido. Ese mismo error impide el montaje del entorno de inicio si tiene un conjunto de datos /var aparte.

Si el conjunto de datos de una zona tiene un punto de montaje no válido, éste se puede corregir si se realizan los siguientes pasos.

ProcedureCómo resolver problemas de punto de montaje ZFS

  1. Inicie el sistema desde un archivo de almacenamiento a prueba de fallos.

  2. Importe la agrupación.

    Por ejemplo:


    # zpool import rpool
    
  3. Busque puntos de montaje temporales incorrectos.

    Por ejemplo:


    # zfs list -r -o name,mountpoint rpool/ROOT/s10u6
        
        NAME                               MOUNTPOINT
        rpool/ROOT/s10u6                   /.alt.tmp.b-VP.mnt/
        rpool/ROOT/s10u6/zones             /.alt.tmp.b-VP.mnt//zones
        rpool/ROOT/s10u6/zones/zonerootA   /.alt.tmp.b-VP.mnt/zones/zonerootA

    El punto de montaje del entorno de inicio raíz (rpool/ROOT/s10u6) debe ser /.

    Si falla el inicio debido a problemas de montaje de /var, busque un punto de montaje temporal similar incorrecto para el conjunto de datos /var.

  4. Restablezca los puntos de montaje del entorno de inicio ZFS y sus conjuntos de datos.

    Por ejemplo:


    # zfs inherit -r mountpoint rpool/ROOT/s10u6
    # zfs set mountpoint=/ rpool/ROOT/s10u6
    
  5. Reinicie el sistema.

    Si se presenta la opción para iniciar un determinado entorno de inicio, en el menú GRUB o el indicador de OpenBoot PROM, seleccione el entorno de inicio cuyos puntos de montaje se han acabado de corregir.

Inicio en situaciones de recuperación en un entorno raíz ZFS

Utilice el procedimiento siguiente si necesita iniciar el sistema para recuperarse de la pérdida de una contraseña raíz o de un problema similar.

Dependiendo de la gravedad del error, tendrá que iniciar en modo a prueba de fallos o desde un medio alternativo. En general, puede iniciar en modo a prueba de fallos para recuperar una contraseña raíz perdida o desconocida.

Si necesita recuperar una agrupación raíz o una instantánea de agrupación raíz, consulte Recuperación de la agrupación raíz ZFS o las instantáneas de la agrupación raíz.

ProcedureCómo iniciar ZFS en modo a prueba de fallos

  1. Inicie en modo a prueba de fallos.

    En un sistema SPARC:


    ok boot -F failsafe
    

    En un sistema x86, seleccione el modo a prueba de fallos en el indicador de GRUB.

  2. Monte el entorno de inicio ZFS en /a cuando se le solicite:


    .
    .
    .
    ROOT/zfsBE was found on rpool.
    Do you wish to have it mounted read-write on /a? [y,n,?] y
    mounting rpool on /a
    Starting shell.
  3. Cambie al directorio /a/etc.


    # cd /a/etc
    
  4. Si es necesario, establezca el tipo TERM.


    # TERM=vt100
    # export TERM
  5. Corrija el archivo passwd o shadow.


    # vi shadow
    
  6. Reinicie el sistema.


    # init 6
    

ProcedureCómo iniciar ZFS desde un medio alternativo

Si un problema impide que el sistema se inicie correctamente, o se produce algún otro problema grave, deberá iniciar desde un servidor de instalación en red o desde un CD de instalación de Solaris, importar la agrupación raíz, montar el entorno de inicio ZFS e intentar resolver el problema.

  1. Inicie desde un CD de instalación o desde la red.

    • SPARC:


      ok boot cdrom -s 
      ok boot net -s
      

      Si no utiliza la opción -s, deberá salir del programa de instalación.

    • x86: seleccione la opción de inicio de red o de inicio desde el CD local.

  2. Importe la agrupación raíz y especifique un punto de montaje alternativo. Por ejemplo:


    # zpool import -R /a rpool
    
  3. Monte el entorno de inicio ZFS. Por ejemplo:


    # zfs mount rpool/ROOT/zfsBE
    
  4. Acceda al contenido ZFS desde el directorio /a.


    # cd /a
    
  5. Reinicie el sistema.


    # init 6
    

Recuperación de la agrupación raíz ZFS o las instantáneas de la agrupación raíz

Las siguientes secciones describen cómo realizar las siguientes tareas:

ProcedureCómo sustituir un disco en la agrupación raíz ZFS

Es posible que necesite sustituir un disco en la agrupación raíz, por los siguientes motivos:

En una configuración de agrupación raíz reflejada, puede intentar una sustitución de discos sin iniciar desde un soporte alternativo. Puede sustituir un disco averiado mediante el comando zpool replace. O, si tiene un disco adicional, puede utilizar el comando zpool attach. Consulte el procedimiento de esta sección para ver un ejemplo de cómo conectar un disco adicional y la desconexión de un disco de agrupación raíz.

Algunos dispositivos de hardware requieren que se desconecte un disco y se desconfigure antes de intentar la operación zpool replace para sustituir un disco averiado. Por ejemplo:


# zpool offline rpool c1t0d0s0
# cfgadm -c unconfigure c1::dsk/c1t0d0
<Physically remove failed disk c1t0d0>
<Physically insert replacement disk c1t0d0>
# cfgadm -c configure c1::dsk/c1t0d0
# zpool replace rpool c1t0d0s0
# zpool online rpool c1t0d0s0
# zpool status rpool
<Let disk resilver before installing the boot blocks>
SPARC# installboot -F zfs /usr/platform/`uname -i`/lib/fs/zfs/bootblk /dev/rdsk/c1t0d0s0
x86# installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c1t9d0s0

En algunos dispositivos de hardware, no es necesario que el disco de sustitución esté conectado ni reconfigurarlo después de insertarlo.

Debe identificar los nombres de ruta del dispositivo de inicio de los discos nuevo y actual para poder probar el inicio desde el disco de sustitución y también iniciar manualmente desde el disco existente, si el disco de sustitución falla. En el ejemplo que aparece en el siguiente procedimiento, el nombre de la ruta del disco de agrupación raíz actual es (c1t10d0s0):


/pci@8,700000/pci@3/scsi@5/sd@a,0

El nombre de ruta del disco de inicio de sustitución es (c1t9d0s0):


/pci@8,700000/pci@3/scsi@5/sd@9,0
  1. Conecte físicamente el disco de sustitución (o nuevo).

  2. Confirme que el disco nuevo tiene una etiqueta SMI y un segmento 0.

    Para obtener información sobre el reetiquetado de un disco que está diseñado para la agrupación raíz, consulte el sitio siguiente:

    http://www.solarisinternals.com/wiki/index.php/ZFS_Troubleshooting_Guide

  3. Conecte el nuevo disco a la agrupación raíz.

    Por ejemplo:


    # zpool attach rpool c1t10d0s0 c1t9d0s0
    
  4. Confirme el estado de la agrupación raíz.

    Por ejemplo:


    # zpool status rpool
      pool: rpool
     state: ONLINE
    status: One or more devices is currently being resilvered.  The pool will
            continue to function, possibly in a degraded state.
    action: Wait for the resilver to complete.
     scrub: resilver in progress, 25.47% done, 0h4m to go
    config:
    
            NAME           STATE     READ WRITE CKSUM
            rpool          ONLINE       0     0     0
              mirror-0     ONLINE       0     0     0
                c1t10d0s0  ONLINE       0     0     0
                c1t9d0s0   ONLINE       0     0     0
    
    errors: No known data errors
  5. Cuando se haya completado la creación, aplique los bloques de inicio al nuevo disco.

    Utilizando una sintaxis similar a la siguiente:

    • SPARC:


      # installboot -F zfs /usr/platform/`uname -i`/lib/fs/zfs/bootblk /dev/rdsk/c1t9d0s0
      
    • x86:


      # installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c1t9d0s0
      
  6. Compruebe que puede iniciar desde el nuevo disco.

    Por ejemplo, en un sistema basado en SPARC, deberá usar una sintaxis similar a la siguiente:


    ok boot /pci@8,700000/pci@3/scsi@5/sd@9,0
    
  7. Si el sistema se inicia desde el nuevo disco, desconecte el disco antiguo.

    Por ejemplo:


    # zpool detach rpool c1t10d0s0
    
  8. Configure el sistema para que se inicie automáticamente desde el nuevo disco, ya sea mediante el comando eeprom, el comando setenv desde la PROM de inicio de SPARC, o bien vuelva a configurar el BIOS del equipo.

ProcedureCómo crear instantáneas de la agrupación raíz

Puede crear instantáneas de la agrupación raíz para las recuperaciones. La forma más recomendable de crear instantáneas de agrupaciones raíz es realizar una instantánea recursiva de la agrupación raíz.

El procedimiento siguiente crea una instantánea de agrupación raíz recursiva y almacena la instantánea como un archivo en una agrupación en un sistema remoto. Si una agrupación raíz falla, el conjunto de datos remoto se puede montar mediante NFS y el archivo de instantánea se puede recibir en la agrupación que se ha vuelto a crear. O bien puede almacenar instantáneas de agrupaciones raíz como las instantáneas reales en una agrupación de un sistema remoto. Enviar y recibir las instantáneas desde un sistema remoto es un poco más complicado porque se debe configurar ssh o utilizar rsh mientras el sistema que hay que reparar se inicia desde la miniraíz del sistema operativo Solaris.

Para obtener información sobre el almacenamiento y la recuperación de forma remota de instantáneas de agrupación raíz, así como la información más actualizada sobre la recuperación de agrupaciones raíz, vaya a este sitio:

http://www.solarisinternals.com/wiki/index.php/ZFS_Troubleshooting_Guide

La validación de instantáneas almacenadas remotamente como archivos o instantáneas es un paso importante en la recuperación de una agrupación raíz. Con cualquiera de estos métodos, las instantáneas se deben volver a crear de forma rutinaria, como, por ejemplo, cuando la configuración de la agrupación cambia o cuando se actualiza el sistema operativo Solaris.

En el procedimiento siguiente, el sistema se inicia desde el entorno de inicio zfsBE.

  1. Cree una agrupación y un sistema de archivos en un sistema remoto para almacenar las instantáneas.

    Por ejemplo:


    remote# zfs create rpool/snaps
    
  2. Comparta el sistema de archivos con el sistema local.

    Por ejemplo:


    remote# zfs set sharenfs='rw=local-system,root=local-system' rpool/snaps
    # share
    -@rpool/snaps   /rpool/snaps   sec=sys,rw=local-system,root=local-system   "" 
  3. Cree una instantánea recursiva de la agrupación raíz.


    local# zfs snapshot -r rpool@0804
    local# zfs list
    NAME                        USED  AVAIL  REFER  MOUNTPOINT
    rpool                      6.17G  60.8G    98K  /rpool
    rpool@0804                     0      -    98K  -
    rpool/ROOT                 4.67G  60.8G    21K  /rpool/ROOT
    rpool/ROOT@0804                0      -    21K  -
    rpool/ROOT/zfsBE           4.67G  60.8G  4.67G  /
    rpool/ROOT/zfsBE@0804       386K      -  4.67G  -
    rpool/dump                 1.00G  60.8G  1.00G  -
    rpool/dump@0804                0      -  1.00G  -
    rpool/swap                  517M  61.3G    16K  -
    rpool/swap@0804                0      -    16K  -
  4. Envíe las instantáneas de la agrupación raíz al sistema remoto.

    Por ejemplo:


    local# zfs send -Rv rpool@0804 > /net/remote-system/rpool/snaps/rpool.0804
    sending from @ to rpool@0804
    sending from @ to rpool/swap@0804
    sending from @ to rpool/ROOT@0804
    sending from @ to rpool/ROOT/zfsBE@0804
    sending from @ to rpool/dump@0804

ProcedureCómo volver a crear una agrupación raíz ZFS y restaurar instantáneas de agrupaciones raíz

En este procedimiento, suponga las siguientes condiciones:

Todos los pasos se llevan a cabo en el sistema local.

  1. Efectúe el inicio desde el CD/DVD o desde la red.

    • SPARC: seleccione uno de los siguientes métodos de inicio:


      ok boot net -s
      ok boot cdrom -s
      

      Si no utiliza la opción -s, deberá salir del programa de instalación.

    • x86: seleccione la opción para iniciar desde el DVD o desde la red. A continuación, salga del programa de instalación.

  2. Monte el conjunto de datos remoto de instantáneas.

    Por ejemplo:


    # mount -F nfs remote-system:/rpool/snaps /mnt
    

    Si los servicios de red no están configurados, es posible que deba especificar la dirección IP del sistema remoto.

  3. Si se reemplaza el disco de la agrupación raíz y no contiene una etiqueta de disco que sea utilizable por ZFS, deberá etiquetar de nuevo el disco.

    Para obtener más información sobre cómo volver a etiquetar el disco, consulte el sitio siguiente:

    http://www.solarisinternals.com/wiki/index.php/ZFS_Troubleshooting_Guide

  4. Vuelva a crear la agrupación raíz.

    Por ejemplo:


    # zpool create -f -o failmode=continue -R /a -m legacy -o cachefile=
    /etc/zfs/zpool.cache rpool c1t1d0s0
    
  5. Restaure las instantáneas de agrupaciones raíz.

    Este paso puede tardar algo. Por ejemplo:


    # cat /mnt/rpool.0804 | zfs receive -Fdu rpool
    

    El uso de la opción -u significa que el archivo de almacenamiento restaurado no está montado cuando se completa la operación zfs receive.

  6. Compruebe que los conjuntos de datos de agrupaciones raíz se hayan restaurado.

    Por ejemplo:


    # zfs list
    NAME                        USED  AVAIL  REFER  MOUNTPOINT
    rpool                      6.17G  60.8G    98K  /a/rpool
    rpool@0804                     0      -    98K  -
    rpool/ROOT                 4.67G  60.8G    21K  /legacy
    rpool/ROOT@0804                0      -    21K  -
    rpool/ROOT/zfsBE           4.67G  60.8G  4.67G  /a
    rpool/ROOT/zfsBE@0804       398K      -  4.67G  -
    rpool/dump                 1.00G  60.8G  1.00G  -
    rpool/dump@0804                0      -  1.00G  -
    rpool/swap                  517M  61.3G    16K  -
    rpool/swap@0804                0      -    16K  -
  7. Defina la propiedad bootfs en el entorno de inicio de la agrupación raíz.

    Por ejemplo:


    # zpool set bootfs=rpool/ROOT/zfsBE rpool
    
  8. Instale los bloques de inicio en el nuevo disco.

    SPARC:


    # installboot -F zfs /usr/platform/`uname -i`/lib/fs/zfs/bootblk /dev/rdsk/c1t1d0s0
    

    x86:


    # installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c1t1d0s0
    
  9. Reinicie el sistema.


    # init 6
    

ProcedureCómo deshacer instantáneas de agrupaciones raíz a partir de un inicio a prueba de fallos

Este procedimiento da por hecho que las instantáneas de agrupaciones raíz existentes están disponibles. En el ejemplo, están disponibles en el sistema local.


# zfs snapshot -r rpool@0804
# zfs list
NAME                        USED  AVAIL  REFER  MOUNTPOINT
rpool                      6.17G  60.8G    98K  /rpool
rpool@0804                     0      -    98K  -
rpool/ROOT                 4.67G  60.8G    21K  /rpool/ROOT
rpool/ROOT@0804                0      -    21K  -
rpool/ROOT/zfsBE           4.67G  60.8G  4.67G  /
rpool/ROOT/zfsBE@0804       398K      -  4.67G  -
rpool/dump                 1.00G  60.8G  1.00G  -
rpool/dump@0804                0      -  1.00G  -
rpool/swap                  517M  61.3G    16K  -
rpool/swap@0804                0      -    16K  -
  1. Apague el sistema e inicie en modo de inicio a prueba de fallos.


    ok boot -F failsafe
    ROOT/zfsBE was found on rpool.
    Do you wish to have it mounted read-write on /a? [y,n,?] y
    mounting rpool on /a
    
    Starting shell.
  2. Deshaga cada instantánea de agrupación raíz.


    # zfs rollback rpool@0804
    # zfs rollback rpool/ROOT@0804
    # zfs rollback rpool/ROOT/zfsBE@0804
    
  3. Vuelva a iniciar en modo multiusuario.


    # init 6