Complete los siguientes pasos la primera vez que utilice Modernización automática de Solaris.
El uso de Modernización automática de Solaris para crear entornos de arranque de ZFS requiere como mínimo la instalación de Solaris 10 10/08. Las versiones anteriores no tienen ZFS ni Modernización automática de Solaris para llevar a cabo las tareas.
Si es preciso, elimine los paquetes existentes en el sistema de Modernización automática de Solaris. Si está modernizando a una nueva versión, instale los paquetes desde dicha versión.
Los tres paquetes de Modernización automática de Solaris, SUNWluu, SUNWlur y SUNWlucfg, contienen el software necesario para modernizar mediante Modernización automática de Solaris. Los paquetes contienen el software ya instalado, nuevas funciones y soluciones de errores. La modernización a la versión de destino no será factible a menos que suprima los paquetes ya instalados e instale los nuevos antes de utilizar Modernización automática de Solaris.
El paquete SUMWlucfg es una novedad disponible a partir de Solaris 10 8/07. Si utiliza paquetes de una versión anterior de Modernización automática de Solaris, no necesita eliminar este paquete.
# pkgrm SUNWlucfg SUNWluu SUNWlur |
Instale los nuevos paquetes de Modernización automática de Solaris. Para obtener instrucciones, consulte Instalación de Modernización automática de Solaris.
Antes de instalar o ejecutar Modernización automática de Solaris, se le solicita que instale las siguientes revisiones. Estas revisiones garantizan que la versión incluya todas las correcciones de errores y las nuevas funciones.
Para asegurarse de que dispone de la lista de parches más reciente, consulte SunSolve. Busque el documento de información 206844 (anteriormente 72099) en el sitio web de SunSolve.
Conviértase en superusuario o asuma una función similar.
Si está almacenando las revisiones en un disco local, cree un directorio como /var/tmp/lupatches y descargue en él las revisiones.
En el sitio web de SunSolve , obtenga la lista de revisiones.
Vaya al directorio de parches.
# cd /var/tmp/lupatches |
Instale las revisiones con el comando patchadd.
# patchadd patch_id |
id_parche es el número o los números de parche. Si especifica varios nombres de revisiones, sepárelos con espacios.
Los parches deben especificarse en el orden especificado en el documento informativo 206844.
Reinicie el sistema si es necesario. Es necesario reiniciar el sistema para que se apliquen determinadas revisiones.
sólo x86: es necesario reiniciar el sistema o Modernización automática de Solaris fallará.
# init 6 |
Cree una agrupación root de ZFS.
La agrupación root de ZFS debe encontrarse en un único segmento para poder arrancarse y actualizarse.
# zpool create rpool2 c0t1d0s5 |
Nombres de la nueva agrupación root de ZFS.
Especifica que se coloque rpool2 en el segmento arrancable, c0t1d0s5.
Para obtener información sobre cómo crear una agrupación root, consulte Guía de administración de Solaris ZFS.
Cree el nuevo entorno de arranque.
# lucreate [-c zfsBE] -n new-zfsBE -p rpool2 |
Asigna el nombre zfsBE al entorno de arranque ZFS actual.
Asigna el nombre al entorno de arranque que se creará. El nombre debe ser exclusivo dentro del sistema.
Coloca el entorno de arranque root de ZFS que acaba de crear en la agrupación root de ZFS definida en rpool2.
La creación del nuevo entorno de arranque ZFS podría tardar un rato. Los datos del sistema de archivos se copian en la nueva agrupación root de ZFS. Una vez creado el entorno de arranque inactivo, puede utilizar el comando luupgrade o luactivate para modernizar o activar el nuevo entorno de arranque ZFS.
(Opcional) Compruebe que el entorno de arranque esté completo.
El comando lustatus informa de si la creación del entorno de arranque está terminada y si dicho entorno se puede arrancar.
# lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes - |
(Opcional) Compruebe la información de conjunto de datos básica en el sistema.
El ejemplo siguiente muestra los nombres de todos los conjuntos de datos del sistema. El punto de montaje que se especifica para el nuevo entorno de arranque es temporal hasta que se ejecuta el comando luactivate. El nuevo entorno de arranque comparte los volúmenes, rpool2/dump y rpool2/swap, con el entorno de arranque de ZFS rpool2.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool2/ROOT/ 5.38G 57.6G 18K /rpool2/ROOT rpool2/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.new.luupdall.109859 rpool2/dump 3.99G - 3.99G - rpool2/swap 3.99G - 3.99G - rpool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G - |
Ahora puede modernizar y activar el nuevo entorno de arranque. Consulte el Ejemplo 13–3.
En este ejemplo, se crea una nueva agrupación root de ZFS (rpool) en un segmento independiente (c0t2s0s5). El comando lucreate crea un nuevo entorno de arranque de ZFS, new-zfsBE. Se necesita la opción -p porque el entorno de arranque se está creando en una agrupación root distinta.
# zpool create rpool C0t1d0s5 # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G - # lucreate -c rpool -n new-zfsBE -p rpool2 Analyzing system configuration. Current boot environment is named <rpool>. Creating initial configuration for primary boot environment <rpool>. The device </dev/dsk/c0t0d0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <rpool> PBE Boot Device </dev/dsk/rpool>. Comparing source boot environment <rpool> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <new-zfsBE>. Source boot environment is <rpool>. Creating boot environment <new-zfsBE>. Creating file systems on boot environment <new-zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool2/ROOT/new-zfsBE>. Populating file systems on boot environment <new-zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </>. Making boot environment <new-zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-cBc.mnt updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive Population of boot environment <new-zfsBE> successful. Creation of boot environment <new-zfsBE> successful. # lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes - # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool2/ROOT/ 5.38G 57.6G 18K /rpool2/ROOT rpool2/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.new.luupdall.109859 rpool2/dump 3.99G - 3.99G - rpool2/swap 3.99G - 3.99G - rpool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G - |