Antes de ejecutarla por primera vez, debe instalar los paquetes más recientes de Actualización automática de Solaris de los medios de instalación, así como los parches que se muestran en el documento de información 206844 de SunSolve. Busque el documento de información 206844 (anteriormente 72099) en el sitio web de SunSolve.
Los parches y paquetes más recientes aseguran que dispone en la versión de todas las correcciones de errores más recientes y las nuevas funciones. Instale todos los parches pertinentes para el sistema antes de proceder a crear un nuevo entorno de inicio.
A continuación se describen los subpasos que figuran en el documento de información de SunSolve 206844.
El uso de Actualización automática de Solaris para crear entornos de inicio ZFS requiere como mínimo la instalación de Solaris 10 10/08. Las versiones anteriores no tienen ZFS ni Actualización automática de Solaris para llevar a cabo las tareas.
Conviértase en superusuario o asuma una función similar.
Las funciones incluyen autorizaciones y comandos con privilegios. Para obtener más información sobre las funciones, consulte Configuring RBAC (Task Map) de System Administration Guide: Security Services.
En el sitio web de SunSolve, siga las instrucciones del documento de información 206844 para agregar y quitar paquetes en Actualización automática de Solaris.
Los tres paquetes de Actualización automática de Solaris, SUNWluu, SUNWlur y SUNWlucfg, contienen el software necesario para actualizar mediante Actualización automática de Solaris. Los paquetes contienen el software ya instalado, nuevas funciones y soluciones de errores. La actualización a la versión de destino no será factible a menos que suprima los paquetes ya instalados e instale los nuevos antes de utilizar Actualización automática de Solaris. El paquete SUMWlucfg es una novedad disponible a partir de Solaris 10 8/07. Si utiliza paquetes de Actualización automática de Solaris de una versión anterior a Solaris 10 8/07, no necesita eliminar este paquete.
El paquete SUMWlucfg es una novedad disponible a partir de Solaris 10 8/07. Si utiliza paquetes de una versión anterior de Actualización automática de Solaris, no necesita eliminar este paquete.
# pkgrm SUNWlucfg SUNWluu SUNWlur |
Instale los nuevos paquetes de Actualización automática de Solaris. Para obtener instrucciones, consulte Instalación de Actualización automática de Solaris.
Antes de ejecutar Actualización automática de Solaris, se le solicita que instale los parches siguientes. Estas revisiones garantizan que la versión incluya todas las correcciones de errores y las nuevas funciones.
Para asegurarse de que dispone de la lista de parches más reciente, consulte SunSolve. Busque el documento de información 206844 (anteriormente 72099) en el sitio web de SunSolve.
Si está almacenando las revisiones en un disco local, cree un directorio como /var/tmp/lupatches y descargue en él las revisiones.
En el sitio web de SunSolve , obtenga la lista de revisiones.
Cambie al directorio del parche, como en este ejemplo.
# cd /var/tmp/lupatches |
Instale las revisiones con el comando patchadd.
# patchadd -M path-to-patches patch_id patch_id |
ruta_a_parches es la ruta de acceso al directorio de parches, como por ejemplo, /var/tmp/lupatches. id_parche es el número o los números de parche. Si especifica varios nombres de revisiones, sepárelos con espacios.
Los parches deben aplicarse en el orden especificado en el documento informativo 206844.
Reinicie el sistema si es necesario. Es necesario reiniciar el sistema para que se apliquen determinadas revisiones.
sólo x86: es necesario reiniciar el sistema o Actualización automática de Solaris fallará.
# init 6 |
Ahora tiene los paquetes y los parches necesarios para una migración sin problemas.
Cree una agrupación root de ZFS.
La agrupación raíz ZFS debe encontrarse en un único segmento para poder iniciarse y actualizarse.
# zpool create rpool2 c0t1d0s5 |
Nombres de la nueva agrupación root de ZFS.
Especifica que se coloque rpool2 en el segmento iniciable, c0t1d0s5.
Para obtener información sobre cómo crear una agrupación raíz, consulte Guía de administración de Oracle Solaris ZFS.
Cree el nuevo entorno de inicio.
# lucreate [-c zfsBE] -n new-zfsBE -p rpool2 |
Asigna el nombre zfsBE al entorno de inicio ZFS actual.
Asigna el nombre al entorno de inicio que se creará. El nombre debe ser exclusivo dentro del sistema.
Coloca el entorno de inicio raíz ZFS que acaba de crear en la agrupación raíz ZFS definida en rpool2.
La creación del nuevo entorno de inicio ZFS podría llevar algún tiempo. Los datos del sistema de archivos se copian en la nueva agrupación root de ZFS. Una vez creado el entorno de inicio inactivo, puede utilizar el comando luupgrade o luactivate para actualizar o activar el nuevo entorno de inicio ZFS.
(Opcional) Compruebe que el entorno de inicio esté completo.
El comando lustatus informa de si la creación del entorno de inicio está terminada y si dicho entorno se puede iniciar.
# lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes - |
(Opcional) Compruebe la información de conjunto de datos básica en el sistema.
El ejemplo siguiente muestra los nombres de todos los conjuntos de datos del sistema. El punto de montaje que se especifica para el nuevo entorno de inicio es temporal hasta que se ejecuta el comando luactivate. El nuevo entorno de inicio comparte los volúmenes, rpool2/dump y rpool2/swap, con el entorno de inicio ZFS rpool2.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool2/ROOT/ 5.38G 57.6G 18K /rpool2/ROOT rpool2/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.new.luupdall.109859 rpool2/dump 3.99G - 3.99G - rpool2/swap 3.99G - 3.99G - rpool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G - |
Ahora puede actualizar y activar el nuevo entorno de inicio. Consulte el Ejemplo 13–3.
En este ejemplo, se crea una nueva agrupación root de ZFS (rpool) en un segmento independiente (c0t2s0s5). El comando lucreate crea un nuevo entorno de inicio ZFS, new-zfsBE. Se necesita la opción -p porque el entorno de inicio se está creando en una agrupación raíz distinta.
# zpool create rpool C0t1d0s5 # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G - # lucreate -c rpool -n new-zfsBE -p rpool2 Analyzing system configuration. Current boot environment is named <rpool>. Creating initial configuration for primary boot environment <rpool>. The device </dev/dsk/c0t0d0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <rpool> PBE Boot Device </dev/dsk/rpool>. Comparing source boot environment <rpool> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <new-zfsBE>. Source boot environment is <rpool>. Creating boot environment <new-zfsBE>. Creating file systems on boot environment <new-zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool2/ROOT/new-zfsBE>. Populating file systems on boot environment <new-zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </>. Making boot environment <new-zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-cBc.mnt updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive Population of boot environment <new-zfsBE> successful. Creation of boot environment <new-zfsBE> successful. # lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes - # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool2/ROOT/ 5.38G 57.6G 18K /rpool2/ROOT rpool2/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.new.luupdall.109859 rpool2/dump 3.99G - 3.99G - rpool2/swap 3.99G - 3.99G - rpool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G - |