Guía de instalación de Oracle Solaris 10 9/10: Actualización automática de Solaris y planificación de la actualización

Creación de un entorno de inicio en una nueva agrupación raíz

Si tiene una agrupación raíz ZFS y desea crear un nuevo entorno de inicio ZFS en una nueva agrupación raíz, consulte el procedimiento siguiente. Una vez creado el entorno de inicio inactivo, el nuevo entorno de inicio se puede actualizar y activar según sea conveniente. La opción -p es necesaria para anotar la ubicación del nuevo entorno de inicio. La agrupación raíz ZFS existente debe encontrarse en un segmento independiente para poder iniciarse y actualizarse.

ProcedureCómo crear un entorno de inicio en una nueva agrupación raíz ZFS

  1. Antes de ejecutarla por primera vez, debe instalar los paquetes más recientes de Actualización automática de Solaris de los medios de instalación, así como los parches que se muestran en el documento de información 206844 de SunSolve. Busque el documento de información 206844 (anteriormente 72099) en el sitio web de SunSolve.

    Los parches y paquetes más recientes aseguran que dispone en la versión de todas las correcciones de errores más recientes y las nuevas funciones. Instale todos los parches pertinentes para el sistema antes de proceder a crear un nuevo entorno de inicio.

    A continuación se describen los subpasos que figuran en el documento de información de SunSolve 206844.


    Nota –

    El uso de Actualización automática de Solaris para crear entornos de inicio ZFS requiere como mínimo la instalación de Solaris 10 10/08. Las versiones anteriores no tienen ZFS ni Actualización automática de Solaris para llevar a cabo las tareas.


    1. Conviértase en superusuario o asuma una función similar.


      Nota –

      Las funciones incluyen autorizaciones y comandos con privilegios. Para obtener más información sobre las funciones, consulte Configuring RBAC (Task Map) de System Administration Guide: Security Services.


    2. En el sitio web de SunSolve, siga las instrucciones del documento de información 206844 para agregar y quitar paquetes en Actualización automática de Solaris.

      Los tres paquetes de Actualización automática de Solaris, SUNWluu, SUNWlur y SUNWlucfg, contienen el software necesario para actualizar mediante Actualización automática de Solaris. Los paquetes contienen el software ya instalado, nuevas funciones y soluciones de errores. La actualización a la versión de destino no será factible a menos que suprima los paquetes ya instalados e instale los nuevos antes de utilizar Actualización automática de Solaris. El paquete SUMWlucfg es una novedad disponible a partir de Solaris 10 8/07. Si utiliza paquetes de Actualización automática de Solaris de una versión anterior a Solaris 10 8/07, no necesita eliminar este paquete.


      Nota –

      El paquete SUMWlucfg es una novedad disponible a partir de Solaris 10 8/07. Si utiliza paquetes de una versión anterior de Actualización automática de Solaris, no necesita eliminar este paquete.



      # pkgrm SUNWlucfg SUNWluu SUNWlur
      
    3. Instale los nuevos paquetes de Actualización automática de Solaris. Para obtener instrucciones, consulte Instalación de Actualización automática de Solaris.

    4. Antes de ejecutar Actualización automática de Solaris, se le solicita que instale los parches siguientes. Estas revisiones garantizan que la versión incluya todas las correcciones de errores y las nuevas funciones.

      Para asegurarse de que dispone de la lista de parches más reciente, consulte SunSolve. Busque el documento de información 206844 (anteriormente 72099) en el sitio web de SunSolve.

      • Si está almacenando las revisiones en un disco local, cree un directorio como /var/tmp/lupatches y descargue en él las revisiones.

      • En el sitio web de SunSolve , obtenga la lista de revisiones.

      • Cambie al directorio del parche, como en este ejemplo.


        # cd /var/tmp/lupatches
        
      • Instale las revisiones con el comando patchadd.


        # patchadd -M path-to-patches patch_id patch_id
        

        ruta_a_parches es la ruta de acceso al directorio de parches, como por ejemplo, /var/tmp/lupatches. id_parche es el número o los números de parche. Si especifica varios nombres de revisiones, sepárelos con espacios.


        Nota –

        Los parches deben aplicarse en el orden especificado en el documento informativo 206844.


      • Reinicie el sistema si es necesario. Es necesario reiniciar el sistema para que se apliquen determinadas revisiones.

        sólo x86: es necesario reiniciar el sistema o Actualización automática de Solaris fallará.


        # init 6
        

        Ahora tiene los paquetes y los parches necesarios para una migración sin problemas.

  2. Cree una agrupación root de ZFS.

    La agrupación raíz ZFS debe encontrarse en un único segmento para poder iniciarse y actualizarse.


    # zpool create rpool2 c0t1d0s5
    
    rpool2

    Nombres de la nueva agrupación root de ZFS.

    c0t1d0s5

    Especifica que se coloque rpool2 en el segmento iniciable, c0t1d0s5.

    Para obtener información sobre cómo crear una agrupación raíz, consulte Guía de administración de Oracle Solaris ZFS.

  3. Cree el nuevo entorno de inicio.


    # lucreate [-c zfsBE] -n new-zfsBE -p rpool2
    
    -c zfsBE

    Asigna el nombre zfsBE al entorno de inicio ZFS actual.

    -n new-zfsBE

    Asigna el nombre al entorno de inicio que se creará. El nombre debe ser exclusivo dentro del sistema.

    -p rpool2

    Coloca el entorno de inicio raíz ZFS que acaba de crear en la agrupación raíz ZFS definida en rpool2.

    La creación del nuevo entorno de inicio ZFS podría llevar algún tiempo. Los datos del sistema de archivos se copian en la nueva agrupación root de ZFS. Una vez creado el entorno de inicio inactivo, puede utilizar el comando luupgrade o luactivate para actualizar o activar el nuevo entorno de inicio ZFS.

  4. (Opcional) Compruebe que el entorno de inicio esté completo.

    El comando lustatus informa de si la creación del entorno de inicio está terminada y si dicho entorno se puede iniciar.


    # lustatus
    boot environment   Is        Active  Active     Can	    Copy 
    Name               Complete  Now	 OnReboot   Delete	 Status 
    ------------------------------------------------------------------------ 
    zfsBE                       yes      yes     yes        no        - 
    new-zfsBE                   yes      no      no         yes        -
  5. (Opcional) Compruebe la información de conjunto de datos básica en el sistema.

    El ejemplo siguiente muestra los nombres de todos los conjuntos de datos del sistema. El punto de montaje que se especifica para el nuevo entorno de inicio es temporal hasta que se ejecuta el comando luactivate. El nuevo entorno de inicio comparte los volúmenes, rpool2/dump y rpool2/swap, con el entorno de inicio ZFS rpool2.


    # zfs list
    NAME                             USED    AVAIL   REFER   MOUNTPOINT 
    rpool2                           9.29G    57.6G     20K   /rpool2 
    rpool2/ROOT/                     5.38G    57.6G     18K   /rpool2/ROOT 
    rpool2/ROOT/new-zfsBE            5.38G    57.6G    551M  /tmp/.new.luupdall.109859
    rpool2/dump                      3.99G        -   3.99G   - 
    rpool2/swap                      3.99G        -   3.99G   - 
    rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
    rpool/ROOT                       5.46G    57.6G     18K   legacy
    rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
    rpool/dump                       3.99G        -   3.99G   - 
    rpool/swap                       3.99G        -   3.99G   - 

    Ahora puede actualizar y activar el nuevo entorno de inicio. Consulte el Ejemplo 13–3.


Ejemplo 13–3 Creación de un entorno de inicio en una nueva agrupación raíz

En este ejemplo, se crea una nueva agrupación root de ZFS (rpool) en un segmento independiente (c0t2s0s5). El comando lucreate crea un nuevo entorno de inicio ZFS, new-zfsBE. Se necesita la opción -p porque el entorno de inicio se está creando en una agrupación raíz distinta.


# zpool create rpool C0t1d0s5
# zfs list
NAME                             USED    AVAIL   REFER   MOUNTPOINT 
rpool2                           9.29G    57.6G     20K   /rpool2 
rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
rpool/ROOT					             5.46G    57.6G     18K   legacy
rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
rpool/dump                       3.99G        -   3.99G   - 
rpool/swap                       3.99G        -   3.99G   - 

# lucreate -c rpool -n new-zfsBE -p rpool2
Analyzing system configuration.
Current boot environment is named <rpool>.
Creating initial configuration for primary boot environment <rpool>.
The device </dev/dsk/c0t0d0> is not a root device for any 
boot environment; cannot get BE ID.
PBE configuration successful: PBE name <rpool> PBE Boot 
Device </dev/dsk/rpool>.
Comparing source boot environment <rpool> file systems with 
the file system(s) you specified for the new boot environment. 
Determining which file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t0d0s0> is not a root device for any 
boot environment; cannot get BE ID.
Creating configuration for boot environment <new-zfsBE>.
Source boot environment is <rpool>.
Creating boot environment <new-zfsBE>.
Creating file systems on boot environment <new-zfsBE>.
Creating <zfs> file system for </> in zone <global> on 
<rpool2/ROOT/new-zfsBE>.
Populating file systems on boot environment <new-zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </>.
Making boot environment <new-zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-cBc.mnt
updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive
Population of boot environment <new-zfsBE> successful.
Creation of boot environment <new-zfsBE> successful.

# lustatus
boot environment   Is        Active  Active     Can	    Copy 
Name               Complete  Now	OnReboot   Delete	 Status 
------------------------------------------------------------------------ 
zfsBE                yes      yes     yes        no        - 
new-zfsBE            yes      no      no         yes        -
# zfs list
NAME                             USED    AVAIL   REFER   MOUNTPOINT 
rpool2                           9.29G    57.6G     20K   /rpool2 
rpool2/ROOT/                     5.38G    57.6G     18K   /rpool2/ROOT 
rpool2/ROOT/new-zfsBE            5.38G    57.6G    551M   /tmp/.new.luupdall.109859
rpool2/dump                      3.99G        -   3.99G   - 
rpool2/swap                      3.99G        -   3.99G   - 
rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
rpool/ROOT                       5.46G    57.6G     18K   legacy
rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
rpool/dump                       3.99G        -   3.99G   - 
rpool/swap                       3.99G        -   3.99G   -