JavaScript is required to for searching.
Omitir Vínculos de navegación
Salir de la Vista de impresión
Guía de instalación de Oracle Solaris 10 1/13: actualización automática y planificada     Oracle Solaris 10 1/13 Information Library (Español)
search filter icon
search icon

Información del documento

Prefacio

Parte I Actualización con actualización automática

1.  Dónde encontrar información sobre cómo planificar la instalación de Oracle Solaris

2.  Actualización automática (descripción general)

3.  Actualización automática (planificación)

4.  Uso de la actualización automática para crear un entorno de inicio (tareas)

5.  Actualización con actualización automática (tareas)

6.  Recuperación después de un fallo: retorno al entorno de inicio original (tareas)

7.  Mantenimiento de los entornos de inicio de actualización automática (tareas)

8.  Actualización del sistema operativo Oracle Solaris en un sistema con zonas no globales instaladas

9.  Ejemplos de actualización automática

Parte II Actualización y migración con actualización automática a una agrupación raíz ZFS

10.  Actualización automática y ZFS (descripción general)

11.  Actualización automática para ZFS (planificación)

12.  Creación de un entorno de inicio para agrupaciones raíz ZFS

Migración de un sistema de archivos UFS a un sistema de archivos ZFS

Migración de un sistema de archivos UFS a un sistema de archivos ZFS

Creación de un entorno de inicio en la misma agrupación raíz ZFS

Cómo crear un entorno de inicio de ZFS en la misma agrupación raíz de ZFS

Creación de un entorno de inicio en una nueva agrupación raíz

Cómo crear un entorno de inicio en una nueva agrupación raíz de ZFS

Creación de un entorno de inicio desde un origen que no sea el sistema en ejecución

Recuperación de un entorno de inicio ZFS

13.  Actualización automática para ZFS con zonas no globales instaladas

Parte III Apéndices

A.  Referencia de comandos de actualización automática

B.  Resolución de problemas (tareas)

C.  Requisitos de empaquetado SVR4 adicionales (referencia)

D.  Uso de Patch Analyzer durante la actualización (Tareas)

Glosario

Índice

Creación de un entorno de inicio en una nueva agrupación raíz

Si tiene una agrupación raíz ZFS y desea crear un nuevo entorno de inicio ZFS en una nueva agrupación raíz, consulte el procedimiento siguiente. Una vez creado el entorno de inicio inactivo, el nuevo entorno de inicio se puede actualizar y activar según sea conveniente. La opción -p es necesaria para anotar la ubicación del nuevo entorno de inicio. La agrupación raíz ZFS existente debe encontrarse en un segmento independiente para poder iniciarse y actualizarse.

Cómo crear un entorno de inicio en una nueva agrupación raíz de ZFS

  1. Antes de ejecutar Live Upgrade por primera vez, debe instalar los paquetes de Live Upgrade más recientes desde el medio de instalación, así como los parches que se muestran en el documento informativo. Busque el documento informativo 1004881.1 - Requisitos de parche de software de Live Upgrade (anteriormente 206844) en el sitio web My Oracle Support.

    Los parches y paquetes más recientes aseguran que dispone en la versión de todas las correcciones de errores más recientes y las nuevas funciones. Instale todos los parches pertinentes para el sistema antes de proceder a crear un nuevo entorno de inicio.

    Los siguientes pasos secundarios describen los pasos en el documento informativo 1004881.1 - Requisitos de parche de software de Live Upgrade (anteriormente 206844) en My Oracle Support.


    Nota - El uso de la actualización automática para crear entornos de inicio ZFS requiere como mínimo la instalación de Solaris 10 10/08. Las versiones anteriores no tienen el software de ZFS y Live Upgrade para llevar a cabo las tareas.


    1. Conviértase en superusuario o asuma una función similar.

      Nota - Los roles incluyen autorizaciones y comandos con privilegios. Para obtener más información sobre los roles, consulte Configuring RBAC (Task Map) de System Administration Guide: Security Services.


    2. Desde el sitio web de My Oracle Support, siga las instrucciones del documento informativo 1004881.1 - para agregar y quitar paquetes de Live Upgrade.

      Los tres paquetes de Live Upgrade, SUNWluu, SUNWlur y SUNWlucfg, contienen el software necesario para actualizar mediante actualización automática. Los paquetes contienen el software ya instalado, nuevas funciones y soluciones de errores. La actualización a la versión de destino no será factible a menos que suprima los paquetes ya instalados e instale los nuevos antes de utilizar la actualización automática. El paquete SUMWlucfg es una novedad disponible a partir de Solaris 10 8/07. Si utiliza paquetes de Live Upgrade de una versión anterior a Solaris 10 8/07, no necesita eliminar este paquete.


      Nota - El paquete SUMWlucfg es una novedad disponible a partir de Solaris 10 8/07. Si utiliza paquetes de Live Upgrade de una versión anterior, no necesita eliminar este paquete.


      # pkgrm SUNWlucfg SUNWluu SUNWlur
    3. Instale los nuevos paquetes de Live Upgrade. Para obtener instrucciones, consulte  Instalación de Live Upgrade.
    4. Antes de ejecutar la actualización automática, se le solicita que instale los siguientes parches. Estas revisiones garantizan que la versión incluya todas las correcciones de errores y las nuevas funciones.

      Asegúrese de que dispone de la lista de parches más reciente; para ello consulte My Oracle Support. Busque el documento informativo 1004881.1 - Requisitos de parche de software de Live Upgrade (anteriormente 206844) en My Oracle Support.

      • Si está almacenando las revisiones en un disco local, cree un directorio como /var/tmp/lupatches y descargue en él las revisiones.

      • Desde el sitio web My Oracle Support, obtenga la lista de parches.

      • Cambie al directorio del parche, como en este ejemplo.

        # cd /var/tmp/lupatches
      • Instale las revisiones con el comando patchadd.

        # patchadd -M path-to-patches patch_id patch_id

        ruta_a_parches es la ruta de acceso al directorio de parches, como por ejemplo, /var/tmp/lupatches. id_parche es el número o los números de parche. Si especifica varios nombres de revisiones, sepárelos con espacios.


        Nota - Los parches se tienen que aplicar en el orden especificado en el documento informativo 1004881.1 - Requisitos de parche de software de Live Upgrade (anteriormente 206844) en My Oracle Support.


      • Reinicie el sistema si es necesario. Es necesario reiniciar el sistema para que se apliquen determinadas revisiones.

        sólo x86: es necesario reiniciar el sistema o la actualización automática fallará.

        # init 6

        Ahora tiene los paquetes y los parches necesarios para una migración sin problemas.

  2. Cree una agrupación raíz de ZFS.

    La agrupación raíz ZFS debe encontrarse en un único segmento para poder iniciarse y actualizarse.

    # zpool create rpool2 c0t1d0s5
    rpool2

    Nombres de la nueva agrupación raíz de ZFS.

    c0t1d0s5

    Especifica que se coloque rpool2 en el segmento iniciable, c0t1d0s5.

    Para obtener información sobre cómo crear una agrupación raíz, consulte Guía de administración de Oracle Solaris ZFS.

  3. Cree el nuevo entorno de inicio.
    # lucreate [-c zfsBE] -n new-zfsBE -p rpool2
    zfsBE

    El nombre para el entorno de inicio ZFS actual.

    new-zfsBE

    El nombre para el entorno de inicio que se creará. El nombre debe ser exclusivo dentro del sistema.

    -p rpool2

    Coloca el entorno de inicio raíz ZFS que acaba de crear en la agrupación raíz ZFS definida en rpool2.

    La creación del nuevo entorno de inicio ZFS podría tardar un rato. Los datos del sistema de archivos se copian en la nueva agrupación raíz de ZFS. Una vez creado el entorno de inicio inactivo, puede utilizar el comando luupgrade o luactivate para actualizar o activar el nuevo entorno de inicio ZFS.

  4. (Opcional) Compruebe que el entorno de inicio esté completo.

    El comando lustatus informa de si la creación del entorno de inicio está terminada y si dicho entorno se puede iniciar.

    # lustatus
    boot environment   Is        Active  Active     Can        Copy 
    Name               Complete  Now     OnReboot   Delete     Status 
    ------------------------------------------------------------------------ 
    zfsBE                       yes      yes     yes        no        - 
    new-zfsBE                   yes      no      no         yes        -
  5. (Opcional) Compruebe la información de conjunto de datos básica en el sistema.

    El ejemplo siguiente muestra los nombres de todos los conjuntos de datos del sistema. El punto de montaje que se especifica para el nuevo entorno de inicio es temporal hasta que se ejecuta el comando luactivate. El nuevo entorno de inicio comparte los volúmenes, rpool2/dump y rpool2/swap, con el entorno de inicio ZFS rpool2.

    # zfs list
    NAME                                   USED  AVAIL  REFER  MOUNTPOINT
    rpool                                     11.4G  2.95G    31K  /rpool
    rpool/ROOT                                4.34G  2.95G    31K  legacy
    rpool/ROOT/new-zfsBE                      4.34G  2.95G  4.34G  /
    rpool/dump                                2.06G  5.02G    16K  -
    rpool/swap                                5.04G  7.99G    16K  -

    Ahora puede actualizar y activar el nuevo entorno de inicio.

Ejemplo 12-3 Creación de un entorno de inicio en una nueva agrupación raíz

En este ejemplo, se crea una nueva agrupación raíz de ZFS, newPool, en un segmento independiente, c0t1s0s5. El comando lucreate crea un nuevo entorno de inicio ZFS, new-zfsbe. Se necesita la opción -p porque el entorno de inicio se está creando en una agrupación raíz distinta.

# zpool create newPool C0t2d0s5
# zfs list
NAME                                   USED  AVAIL  REFER  MOUNTPOINT
newPool                          92.5K  18.7G    31K  /newPool 
rpool                                     11.4G  2.95G    31K  /rpool
rpool/ROOT                                4.34G  2.95G    31K  legacy
rpool/ROOT/zfsBE                      4.34G  2.95G  4.34G  /
rpool/dump                                2.06G  5.02G    16K  -
rpool/swap                                5.04G  7.99G    16K  -
# lucreate -c c0t1d0s5 -n new-zfsbe -p newPool 
Checking GRUB menu...
Analyzing system configuration.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID.
Creating configuration for boot environment <new-zfsbe>.
Source boot environment is <c0t1d0s5>.
Creating file systems on boot environment <new-zfsbe>.
Creating <zfs> file system for </> in zone <global> on <newPool/ROOT/new-zfsbe>.
Populating file systems on boot environment <new-zfsbe>.
Analyzing zones.
Mounting ABE <new-zfsbe>.
Generating file list.
Copying data from PBE <c0t1d0s5> to ABE <new-zfsbe>.
100% of filenames transferred
Finalizing ABE.
Fixing zonepaths in ABE.
Unmounting ABE <new-zfsbe>.
Fixing properties on ZFS datasets in ABE.
Reverting state of zones in PBE <c0t1d0s5>.
Making boot environment <new-zfsbe> bootable.
Updating bootenv.rc on ABE <new-zfsbe>.
Saving existing file </boot/grub/menu.lst> in top level dataset for BE <new-zfsBE> 
as <mount-point>//boot/grub/menu.lst.prev.
File </boot/grub/menu.lst> propagation successful
Copied GRUB menu from PBE to ABE
No entry for BE <new-zfsbe> in GRUB menu
Population of boot environment <new-zfsbe> successful.
Creation of boot environment <new-zfsbe> successful. 
# lustatus
Boot Environment           Is       Active Active    Can    Copy
Name                       Complete Now    On Reboot Delete Status
-------------------------- -------- ------ --------- ------ ----------
c0t0d0                     yes      yes    yes       no     -
zfsBE                            yes      no     no        yes    -
new-zfsbe                  yes      no     no        yes    -

# zfs list
NAME                                   USED  AVAIL  REFER  MOUNTPOINT
newPool                               7.15G  11.6G    36K  /newPool
newPool/ROOT                          4.05G  11.6G    31K  legacy
newPool/ROOT/new-zfsbe                4.05G  11.6G  4.05G  /
newPool/dump                          1.03G  12.6G    16K  -
newPool/swap                          2.06G  13.6G    16K  -
rpool                                             11.4G  2.95G    31K  /rpool
rpool/ROOT                                        4.34G  2.95G    31K  legacy
rpool/ROOT/zfsBE                                  4.34G  2.95G  4.34G  /
rpool/dump                                        2.06G  5.02G    16K  -
rpool/swap                                        5.04G  7.99G    16K  -