Guía de instalación de Solaris 10 10/09: Modernización automática de Solaris y planificación de la modernización

Creación de un entorno de arranque en una nueva agrupación root

Si tiene una agrupación root de ZFS y desea crear un nuevo entorno de arranque de ZFS en una nueva agrupación root, consulte el procedimiento siguiente. Una vez creado el entorno de arranque inactivo, el nuevo entorno de arranque se puede modernizar y activar según sea conveniente. La opción -p es necesaria para anotar la ubicación del nuevo entorno de arranque. La agrupación root de ZFS existente debe encontrarse en un segmento independiente para poder arrancarse y actualizarse.

ProcedureCómo crear un entorno de arranque en una nueva agrupación root de ZFS

  1. Antes de ejecutarla por primera vez, debe instalar los paquetes más recientes de Modernización automática de Solaris de los medios de instalación, así como los parches que se muestran en el documento de información 206844 de SunSolve. Busque el documento de información 206844 (anteriormente 72099) en el sitio web de SunSolve.

    Los parches y paquetes más recientes aseguran que dispone en la versión de todas las correcciones de errores más recientes y las nuevas funciones. Instale todos los parches pertinentes para el sistema antes de proceder a crear un nuevo entorno de arranque.

    A continuación se describen los subpasos que figuran en el documento de información de SunSolve 206844.


    Nota –

    El uso de Modernización automática de Solaris para crear entornos de arranque de ZFS requiere como mínimo la instalación de Solaris 10 10/08. Las versiones anteriores no tienen ZFS ni Modernización automática de Solaris para llevar a cabo las tareas.


    1. Conviértase en superusuario o asuma una función similar.

    2. En el sitio web de SunSolve, siga las instrucciones del documento de información 206844 para agregar y quitar paquetes en Modernización automática de Solaris.

      Los tres paquetes de Modernización automática de Solaris, SUNWluu, SUNWlur y SUNWlucfg, contienen el software necesario para modernizar mediante Modernización automática de Solaris. Los paquetes contienen el software ya instalado, nuevas funciones y soluciones de errores. La modernización a la versión de destino no será factible a menos que suprima los paquetes ya instalados e instale los nuevos antes de utilizar Modernización automática de Solaris. El paquete SUMWlucfg es una novedad disponible a partir de Solaris 10 8/07. Si utiliza paquetes de Modernización automática de Solaris de una versión anterior a Solaris 10 8/07, no necesita suprimir este paquete.


      Nota –

      El paquete SUMWlucfg es una novedad disponible a partir de Solaris 10 8/07. Si utiliza paquetes de una versión anterior de Modernización automática de Solaris, no necesita eliminar este paquete.



      # pkgrm SUNWlucfg SUNWluu SUNWlur
      
    3. Instale los nuevos paquetes de Modernización automática de Solaris. Para obtener instrucciones, consulte Instalación de Modernización automática de Solaris.

    4. Antes de ejecutar la Modernización automática de Solaris, se le solicita que instale los parches siguientes. Estas revisiones garantizan que la versión incluya todas las correcciones de errores y las nuevas funciones.

      Para asegurarse de que dispone de la lista de parches más reciente, consulte SunSolve. Busque el documento de información 206844 (anteriormente 72099) en el sitio web de SunSolve.

      • Si está almacenando las revisiones en un disco local, cree un directorio como /var/tmp/lupatches y descargue en él las revisiones.

      • En el sitio web de SunSolve , obtenga la lista de revisiones.

      • Cambie al directorio del parche, como en este ejemplo.


        # cd /var/tmp/lupatches
        
      • Instale las revisiones con el comando patchadd.


        # patchadd -M path-to-patches patch_id patch_id
        

        ruta_a_parches es la ruta de acceso al directorio de parches, como por ejemplo, /var/tmp/lupatches. id_parche es el número o los números de parche. Si especifica varios nombres de revisiones, sepárelos con espacios.


        Nota –

        Los parches deben aplicarse en el orden especificado en el documento informativo 206844.


      • Reinicie el sistema si es necesario. Es necesario reiniciar el sistema para que se apliquen determinadas revisiones.

        sólo x86: es necesario reiniciar el sistema o Modernización automática de Solaris fallará.


        # init 6
        

        Ahora tiene los paquetes y los parches necesarios para una migración sin problemas.

  2. Cree una agrupación root de ZFS.

    La agrupación root de ZFS debe encontrarse en un único segmento para poder arrancarse y actualizarse.


    # zpool create rpool2 c0t1d0s5
    
    rpool2

    Nombres de la nueva agrupación root de ZFS.

    c0t1d0s5

    Especifica que se coloque rpool2 en el segmento arrancable, c0t1d0s5.

    Para obtener información sobre cómo crear una agrupación root, consulte Guía de administración de Solaris ZFS.

  3. Cree el nuevo entorno de arranque.


    # lucreate [-c zfsBE] -n new-zfsBE -p rpool2
    
    -c zfsBE

    Asigna el nombre zfsBE al entorno de arranque ZFS actual.

    -n new-zfsBE

    Asigna el nombre al entorno de arranque que se creará. El nombre debe ser exclusivo dentro del sistema.

    -p rpool2

    Coloca el entorno de arranque root de ZFS que acaba de crear en la agrupación root de ZFS definida en rpool2.

    La creación del nuevo entorno de arranque ZFS podría tardar un rato. Los datos del sistema de archivos se copian en la nueva agrupación root de ZFS. Una vez creado el entorno de arranque inactivo, puede utilizar el comando luupgrade o luactivate para modernizar o activar el nuevo entorno de arranque ZFS.

  4. (Opcional) Compruebe que el entorno de arranque esté completo.

    El comando lustatus informa de si la creación del entorno de arranque está terminada y si dicho entorno se puede arrancar.


    # lustatus
    boot environment   Is        Active  Active     Can	    Copy 
    Name               Complete  Now	 OnReboot   Delete	 Status 
    ------------------------------------------------------------------------ 
    zfsBE                       yes      yes     yes        no        - 
    new-zfsBE                   yes      no      no         yes        -
  5. (Opcional) Compruebe la información de conjunto de datos básica en el sistema.

    El ejemplo siguiente muestra los nombres de todos los conjuntos de datos del sistema. El punto de montaje que se especifica para el nuevo entorno de arranque es temporal hasta que se ejecuta el comando luactivate. El nuevo entorno de arranque comparte los volúmenes, rpool2/dump y rpool2/swap, con el entorno de arranque de ZFS rpool2.


    # zfs list
    NAME                             USED    AVAIL   REFER   MOUNTPOINT 
    rpool2                           9.29G    57.6G     20K   /rpool2 
    rpool2/ROOT/                     5.38G    57.6G     18K   /rpool2/ROOT 
    rpool2/ROOT/new-zfsBE            5.38G    57.6G    551M  /tmp/.new.luupdall.109859
    rpool2/dump                      3.99G        -   3.99G   - 
    rpool2/swap                      3.99G        -   3.99G   - 
    rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
    rpool/ROOT                       5.46G    57.6G     18K   legacy
    rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
    rpool/dump                       3.99G        -   3.99G   - 
    rpool/swap                       3.99G        -   3.99G   - 

    Ahora puede modernizar y activar el nuevo entorno de arranque. Consulte el Ejemplo 13–3.


Ejemplo 13–3 Creación de un entorno de arranque en una nueva agrupación root

En este ejemplo, se crea una nueva agrupación root de ZFS (rpool) en un segmento independiente (c0t2s0s5). El comando lucreate crea un nuevo entorno de arranque de ZFS, new-zfsBE. Se necesita la opción -p porque el entorno de arranque se está creando en una agrupación root distinta.


# zpool create rpool C0t1d0s5
# zfs list
NAME                             USED    AVAIL   REFER   MOUNTPOINT 
rpool2                           9.29G    57.6G     20K   /rpool2 
rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
rpool/ROOT					             5.46G    57.6G     18K   legacy
rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
rpool/dump                       3.99G        -   3.99G   - 
rpool/swap                       3.99G        -   3.99G   - 

# lucreate -c rpool -n new-zfsBE -p rpool2
Analyzing system configuration.
Current boot environment is named <rpool>.
Creating initial configuration for primary boot environment <rpool>.
The device </dev/dsk/c0t0d0> is not a root device for any 
boot environment; cannot get BE ID.
PBE configuration successful: PBE name <rpool> PBE Boot 
Device </dev/dsk/rpool>.
Comparing source boot environment <rpool> file systems with 
the file system(s) you specified for the new boot environment. 
Determining which file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t0d0s0> is not a root device for any 
boot environment; cannot get BE ID.
Creating configuration for boot environment <new-zfsBE>.
Source boot environment is <rpool>.
Creating boot environment <new-zfsBE>.
Creating file systems on boot environment <new-zfsBE>.
Creating <zfs> file system for </> in zone <global> on 
<rpool2/ROOT/new-zfsBE>.
Populating file systems on boot environment <new-zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </>.
Making boot environment <new-zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-cBc.mnt
updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive
Population of boot environment <new-zfsBE> successful.
Creation of boot environment <new-zfsBE> successful.

# lustatus
boot environment   Is        Active  Active     Can	    Copy 
Name               Complete  Now	OnReboot   Delete	 Status 
------------------------------------------------------------------------ 
zfsBE                yes      yes     yes        no        - 
new-zfsBE            yes      no      no         yes        -
# zfs list
NAME                             USED    AVAIL   REFER   MOUNTPOINT 
rpool2                           9.29G    57.6G     20K   /rpool2 
rpool2/ROOT/                     5.38G    57.6G     18K   /rpool2/ROOT 
rpool2/ROOT/new-zfsBE            5.38G    57.6G    551M   /tmp/.new.luupdall.109859
rpool2/dump                      3.99G        -   3.99G   - 
rpool2/swap                      3.99G        -   3.99G   - 
rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
rpool/ROOT                       5.46G    57.6G     18K   legacy
rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
rpool/dump                       3.99G        -   3.99G   - 
rpool/swap                       3.99G        -   3.99G   -