Guía de administración de Oracle Solaris ZFS

ProcedureCómo migrar un sistema de archivos raíz UFS con una raíz de zona a un sistema de archivos raíz ZFS (al menos Solaris 10 5/09)

Utilice este procedimiento para migrar un sistema con un sistema de archivos raíz UFS y una raíz de zona al menos a la versión Solaris 10 5/09. A continuación, utilice Actualización automática de Oracle Solaris para crear un entorno de inicio ZFS.

En los pasos que aparecen a continuación, el nombre del entorno de inicio UFS de ejemplo es c0t1d0s0, la raíz de zona UFS es zonepool/zfszone y el entorno de inicio raíz es zfsBE.

  1. Actualice el sistema a la versión Solaris 10 5/09 si se ejecuta una versión de Solaris 10 anterior.

    Para obtener información sobre cómo actualizar un sistema que ejecuta la versión Solaris 10, consulte Guía de instalación de Oracle Solaris 10 9/10: Actualización automática de Solaris y planificación de la actualización.

  2. Cree la agrupación raíz.

    Si necesita información sobre los requisitos de agrupaciones raíz, consulte Requisitos de instalación de Oracle Solaris y de Actualización automática de Oracle Solaris para compatibilidad con ZFS.

  3. Confirme que se hayan iniciado las zonas desde el entorno de inicio UFS.


    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       2 zfszone          running    /zonepool/zones                native   shared
  4. Cree el nuevo entorno de inicio ZFS.


    # lucreate -c c1t1d0s0 -n zfsBE -p rpool
    

    Este comando establece conjuntos de datos en la agrupación raíz del nuevo entorno de inicio y copia el entorno de inicio actual (zonas incluidas) en esos conjuntos de datos.

  5. Active el nuevo entorno de inicio ZFS.


    # lustatus
    Boot Environment           Is       Active Active    Can    Copy      
    Name                       Complete Now    On Reboot Delete Status    
    -------------------------- -------- ------ --------- ------ ----------
    c1t1d0s0                   yes      no     no        yes    -         
    zfsBE                      yes      yes    yes       no     -         #
    luactivate zfsBE       
    A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>.
    .
    .
    .
  6. Reinicie el sistema.


    # init 6
    
  7. Confirme que las zonas y los sistemas de archivos ZFS se creen en el nuevo entorno de inicio.


    # zfs list
    NAME                                USED  AVAIL  REFER  MOUNTPOINT
    rpool                              6.17G  60.8G    98K  /rpool
    rpool/ROOT                         4.67G  60.8G    21K  /rpool/ROOT
    rpool/ROOT/zfsBE                   4.67G  60.8G  4.67G  /
    rpool/dump                         1.00G  60.8G  1.00G  -
    rpool/swap                          517M  61.3G    16K  -
    zonepool                            634M  7.62G    24K  /zonepool
    zonepool/zones                      270K  7.62G   633M  /zonepool/zones
    zonepool/zones-c1t1d0s0             634M  7.62G   633M  /zonepool/zones-c1t1d0s0
    zonepool/zones-c1t1d0s0@zfsBE       262K      -   633M  -
    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       - zfszone          installed  /zonepool/zones                native   shared

Ejemplo 5–7 Migración de un sistema de archivos raíz UFS con raíz de zona a un sistema de archivos raíz ZFS

En este ejemplo, un sistema Oracle Solaris 10 9/10 con un sistema de archivos raíz UFS y una raíz de zona (/uzone/ufszone), así como una agrupación que no es raíz ZFS (pool) y una raíz de zona (/pool/zfszone) se migra a un sistema de archivos raíz ZFS. Asegúrese de que la agrupación raíz ZFS se haya creado y de que las zonas se hayan instalado e iniciado antes de intentar la migración.


# zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   2 ufszone          running    /uzone/ufszone                 native   shared
   3 zfszone          running    /pool/zones/zfszone            native   shared

# lucreate -c ufsBE -n zfsBE -p rpool
Analyzing system configuration.
No name for current boot environment.
Current boot environment is named <zfsBE>.
Creating initial configuration for primary boot environment <zfsBE>.
The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
PBE configuration successful: PBE name <ufsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
Comparing source boot environment <ufsBE> file systems with the file 
system(s) you specified for the new boot environment. Determining which 
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID.
Creating configuration for boot environment <zfsBE>.
Source boot environment is <ufsBE>.
Creating boot environment <zfsBE>.
Creating file systems on boot environment <zfsBE>.
Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>.
Populating file systems on boot environment <zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Copying root of zone <ufszone> to </.alt.tmp.b-EYd.mnt/uzone/ufszone>.
Creating snapshot for <pool/zones/zfszone> on <pool/zones/zfszone@zfsBE>.
Creating clone for <pool/zones/zfszone@zfsBE> on <pool/zones/zfszone-zfsBE>.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </rpool/ROOT>.
Creating compare database for file system </>.
Updating compare databases on boot environment <zfsBE>.
Making boot environment <zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-DLd.mnt
updating /.alt.tmp.b-DLd.mnt/platform/sun4u/boot_archive
Population of boot environment <zfsBE> successful.
Creation of boot environment <zfsBE> successful.
# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
ufsBE                      yes      yes    yes       no     -         
zfsBE                      yes      no     no        yes    -         
# luactivate zfsBE    
.
.
.
# init 6
.
.
.
# zfs list
NAME                                    USED  AVAIL  REFER  MOUNTPOINT
pool                                    628M  66.3G    19K  /pool
pool/zones                              628M  66.3G    20K  /pool/zones
pool/zones/zfszone                     75.5K  66.3G   627M  /pool/zones/zfszone
pool/zones/zfszone-ufsBE                628M  66.3G   627M  /pool/zones/zfszone-ufsBE
pool/zones/zfszone-ufsBE@zfsBE           98K      -   627M  -
rpool                                  7.76G  59.2G    95K  /rpool
rpool/ROOT                             5.25G  59.2G    18K  /rpool/ROOT
rpool/ROOT/zfsBE                       5.25G  59.2G  5.25G  /
rpool/dump                             2.00G  59.2G  2.00G  -
rpool/swap                              517M  59.7G    16K  -
# zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   - ufszone          installed  /uzone/ufszone                 native   shared
   - zfszone          installed  /pool/zones/zfszone            native   shared