En este apartado se proporcionan una descripción general e instrucciones sobre el uso de Actualización automática de Solaris para crear y actualizar un entorno de inicio inactivo en agrupaciones de almacenamiento ZFS. También puede migrar el sistema de archivos UFS (/) a una agrupación root de ZFS.
Con Actualización automática de Solaris, puede migrar los sistemas de archivos UFS a una agrupación raíz ZFS y crear sistemas de archivos ZFS desde una agrupación raíz ZFS existente.
La creación de entornos de inicio con Actualización automática de Solaris es una novedad de Solaris 10 10/08. Al actualizar un sistema de archivos UFS con Actualización automática de Solaris, no se modifican ni los parámetros de la línea de comandos ni el funcionamiento de Actualización automática de Solaris. Para utilizar Actualización automática de Solaris en un sistema con sistemas de archivos UFS, consulte la Parte I, Actualización con Actualización automática de Solaris de este manual.
Las siguientes secciones describen estas tareas:
Introducción al uso de Actualización automática de Solaris con ZFS.
Puede migrar un sistema de archivos UFS con o sin volúmenes SVM.
Puede crear un entorno de inicio ZFS en la agrupación raíz existente o en otra agrupación raíz.
Creación de un entorno de inicio desde un origen que no sea el sistema en ejecución.
Creación de un entorno de inicio ZFS en un sistema con zonas no globales instaladas.
A partir de la versión Solaris 10 10/09, puede establecer un perfil JumpStart para identificar un archivo de almacenamiento Flash de una agrupación raíz de ZFS.
Un archivo de almacenamiento Flash se puede crear en un sistema que ejecute un sistema de archivos raíz UFS o un sistema de archivos ZFS. Un archivo de almacenamiento Flash de una agrupación raíz de ZFS contiene toda la jerarquía del grupo, excepto los volúmenes de intercambio y volcado, así como cualquier conjunto de datos excluido. Los volúmenes de intercambio y volcado se crean cuando el archivo de almacenamiento Flash está instalado.
Puede utilizar el método de instalación del archivo de almacenamiento Flash como sigue:
Genere un archivo de almacenamiento flash que pueda utilizarse para instalar e iniciar un sistema con un sistema de archivos raíz ZFS.
Realice una instalación JumpStart de un sistema mediante un archivo de almacenamiento Flash ZFS.
La creación de un archivo de almacenamiento flash ZFS realiza una copia de seguridad de toda una agrupación raíz, no de entornos de inicio individuales. Se pueden excluir cada uno de los conjuntos de datos de la agrupación mediante la opción - D del comando flar y el comando flarcreate.
Para obtener instrucciones detalladas e información sobre las limitaciones, consulte Instalación de un sistema de archivos raíz ZFS (instalación de archivo de almacenamiento flash de Oracle Solaris) de Guía de administración de Oracle Solaris ZFS.
Si tiene un sistema de archivos UFS, Actualización automática de Solaris funciona del mismo modo que en versiones anteriores. Ahora puede migrar de sistemas de archivos UFS a una agrupación raíz ZFS y crear nuevos entornos de inicio en una agrupación raíz ZFS. Para ello, se ha mejorado el comando lucreate con la opción -p. La sintaxis del comando es la siguiente:
# lucreate [-c active_BE_name] -n BE_name [-p zfs_root_pool] |
La opción -p especifica la agrupación ZFS en la que reside un nuevo entorno de inicio. Esta opción se puede omitir si los entornos de inicio de origen y destino se encuentran en la misma agrupación.
La opción -m del comando lucreate no es compatible con ZFS. Otras opciones del comando lucreate funcionan del modo habitual, aunque con algunas excepciones. Para conocer las limitaciones, consulte Limitaciones y requisitos del sistema para el uso de Actualización automática de Solaris.
Si crea un entorno de inicio desde el sistema en ejecución, el comando lucreate copia el sistema de archivos raíz UFS (/) en una agrupación raíz ZFS. El proceso de copia puede tardar, dependiendo del sistema.
Cuando migra desde un sistema de archivos UFS, el entorno de inicio de origen puede ser un sistema de archivos raíz UFS (/) o un segmento de disco. No puede crear un entorno de inicio en un sistema de archivos UFS desde un entorno de inicio de origen en una agrupación raíz ZFS.
Los siguientes comandos crean una agrupación raíz ZFS y un nuevo entorno de inicio desde un sistema de archivos raíz UFS (/) en la agrupación raíz ZFS. Debe existir una agrupación raíz ZFS antes de utilizar lucreate, y debe crearse con segmentos en lugar de discos completos para poder actualizarse e iniciarse. El disco no puede tener una etiqueta EFI, sino una etiqueta SMI. Para conocer más limitaciones, consulte Limitaciones y requisitos del sistema para el uso de Actualización automática de Solaris.
La Figura 11–1 muestra el comando zpool que crea una agrupación root, rpool en un segmento distinto, c0t1d0s5. El segmento de disco c0t0d0s0 contiene un sistema de archivos root de UFS (/). En el comando lucreate, la opción -c asigna un nombre al sistema en ejecución, c0t0d0 , que es un sistema de archivos root de UFS (/). La opción -n asigna el nombre al entorno de inicio que se creará, new-zfsBE. La opción -p especifica dónde colocar el nuevo entorno de inicio, rpool. Ni el sistema de archivos UFS /export ni el volumen /swap se copian en el nuevo entorno de inicio.
Este ejemplo muestra los mismos comandos que la Figura 11–1. Los comandos crean una agrupación raíz, rpool, y un nuevo entorno de inicio en la agrupación desde un sistema de archivos raíz UFS (/). En este ejemplo, el comando zfs list muestra la agrupación root de ZFS que crea el comando zpool. El siguiente comando zfs list muestra los conjuntos de datos que crea el comando lucreate.
# zpool create rpool c0t1d0s5 # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 9.29G 57.6G 20K /rpool |
# lucreate -c c0t0d0 -n new-zfsBE -p rpool # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 9.29G 57.6G 20K /rpool rpool/ROOT 5.38G 57.6G 18K /rpool/ROOT rpool/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.alt.luupdall.110034 rpool/dump 1.95G - 1.95G - rpool/swap 1.95G - 1.95G - |
El nuevo entorno de inicio es rpool/ROOT/new-zfsBE. El entorno de inicio, new-zfsBE, está listo para ser actualizado y activado.
Puede migrar un sistema de archivos de UFS si el sistema tiene volúmenes de Solaris Volume Manager (SVM). Para crear un entorno de inicio UFS desde una configuración de SVM existente, cree un entorno de inicio desde el sistema en ejecución. A continuación, cree el entorno de inicio ZFS desde el entorno de inicio UFS nuevo.
Descripción general de Solaris Volume Manager (SVM). ZFS se basa en el concepto de grupos de almacenamiento para administrar el almacenamiento físico. Desde siempre, los sistemas de archivos se estructuran a partir de un solo único dispositivo físico. Para poder ocuparse de varios dispositivos y proporcionar redundancia de datos, se incorporó el concepto del administrador de volúmenes, con el fin de ofrecer la imagen de un único dispositivo. De este modo, no es necesario modificar los sistemas de archivos para poder utilizar los distintos dispositivos. Este diseño significaba otro nivel de complejidad. Dicha complejidad obstaculizaba determinados avances en los sistemas de archivos, al carecer de control sobre la ubicación física de los datos en los volúmenes virtualizados.
Las agrupaciones de almacenamiento de ZFS sustituyen a SVM. ZFS elimina por completo la administración de volúmenes. En vez de tener que crear volúmenes virtualizados, ZFS agrega dispositivos a un grupo de almacenamiento. La agrupación de almacenamiento describe las características físicas del diseño del dispositivo de almacenamiento y la redundancia de datos, y actúa como almacén de datos arbitrario en el que se pueden crear sistemas de archivos. Los sistemas de archivos ya no se limitan a dispositivos individuales, lo cual les permite compartir espacio con todos los sistemas de archivos de la agrupación. Ya no es necesario predeterminar el tamaño de un sistema de archivos, ya que el tamaño de los sistemas de archivos crece automáticamente en el espacio asignado al grupo de almacenamiento. Al incorporar un nuevo almacenamiento, todos los sistemas de archivos del grupo pueden usar de inmediato el espacio adicional sin procesos complementarios. En muchos sentidos, el grupo de almacenamiento actúa como sistema de memoria virtual. Si se agrega al sistema un módulo de memoria DIMM, el sistema operativo no obliga a invocar algunos comandos para configurar la memoria y asignarla a determinados procesos. Todos los procesos del sistema utilizan automáticamente la memoria adicional.
Al migrar un sistema con volúmenes SVM, los volúmenes SVM se omiten. Puede configurar duplicaciones en la agrupación root, como en el ejemplo siguiente.
En este ejemplo, el comando lucreate con la opción -m crea un entorno de inicio desde el sistema en ejecución. El segmento de disco c1t0d0s0 contiene un sistema de archivos root de UFS ( /) configurado con volúmenes SVM. El comando zpool crea una agrupación root, c1t0d0s0, y un volumen RAID-1 (duplicación), c2t0d0s0. En el segundo comando lucreate, la opción -n asigna el nombre al entorno de inicio que se creará, c0t0d0s0. La opción -s identifica el sistema de archivos root UFS (/). La opción -p especifica dónde colocar el nuevo entorno de inicio, rpool.
# lucreate -n ufsBE -m /:/dev/md/dsk/d104:ufs # zpool create rpool mirror c1t0d0s0 c2t1d0s0 # lucreate -n c0t0d0s0 -s ufsBE -p zpool |
El entorno de inicio, c0t0d0s0, está listo para ser actualizado y activado.
Puede crear un entorno de inicio ZFS en la misma agrupación raíz o en una nueva. Esta sección contiene la información siguiente:
Al crear un entorno de inicio en la misma agrupación raíz ZFS, el comando lucreate crea una instantánea desde el entorno de inicio de origen y luego crea un clónico desde la instantánea. La creación de la instantánea y el clónico es casi instantánea y el espacio en disco que se utiliza es mínimo. La cantidad de espacio que se requiere depende de cuántos archivos se sustituyan como parte del proceso de actualización. La instantánea es de sólo lectura, pero el clónico es una copia de lectura y escritura de la instantánea. Cualquier cambio que efectúe en el entorno de inicio clónico no se reflejará ni en la instantánea ni en el entorno de inicio de origen desde el que se ha creado la instantánea.
Como los datos de un conjunto de datos activo cambian, la instantánea consume espacio al seguir haciendo referencia a los datos antiguos. Como resultado, la instantánea impide que los datos pasen al grupo. Para obtener más información sobre las instantáneas, consulte el Capítulo 7, Uso de clones e instantáneas de Oracle Solaris ZFS de Guía de administración de Oracle Solaris ZFS.
Si el entorno de inicio actual se encuentra en la misma agrupación ZFS, la opción -p se omite.
La Figura 11–2 muestra la creación de un entorno de inicio ZFS desde una agrupación raíz ZFS. El segmento c0t0d0s0 contiene una agrupación root de ZFS, rpool. En el comando lucreate, la opción -n asigna el nombre al entorno de inicio que se creará, new-zfsBE. Se crea una instantánea de la agrupación root original (rpool@new-zfsBE). La instantánea se utiliza para crear el clon que es un nuevo entorno de inicio, new-zfsBE. El entorno de inicio, new-zfsBE, está listo para ser actualizado y activado.
Este ejemplo muestra el mismo comando que la Figura 11–2 que crea un entorno de inicio en la misma agrupación raíz. El comando lucreate asigna el nombre al entorno de inicio en ejecución con la opción -c zfsBE y -n new-zfsBE crea el nuevo entorno de inicio. El comando zfs list muestra los conjuntos de datos ZFS con el nuevo entorno de inicio y la nueva instantánea.
# lucreate -c zfsBE -n new-zfsBE # zfs list AME USED AVAIL REFER MOUNTPOINT rpool 9.29G 57.6G 20K /rpool rpool/ROOT 5.38G 57.6G 18K /rpool/ROOT rpool/ROOT/zfsBE 5.38G 57.6G 551M rpool/ROOT/zfsBE@new-zfsBE 66.5K - 551M - rpool/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.alt.luupdall.110034 rpool/dump 1.95G - 1.95G - rpool/swap 1.95G - 1.95G - |
Puede utilizar el comando lucreate para copiar una agrupación root de ZFS en otra agrupación root de ZFS. El proceso de copia puede tardar, dependiendo del sistema.
La Figura 11–3 muestra el comando zpool que crea una agrupación raíz ZFS, rpool2, en c0t1d0s5 porque todavía no existe una agrupación raíz ZFS que se pueda iniciar. El comando lucreate con la opción -n asigna el nombre al entorno root que se creará, new-zfsBE. La opción -p especifica dónde colocar el nuevo entorno de inicio.
Este ejemplo muestra los mismos comandos que la Figura 11–3 que crean una agrupación raíz y luego un entorno de inicio en la agrupación raíz que se acaba de crear. En este ejemplo, el comando zpool create crea rpool2. El comando zfs list muestra que no se han creado conjuntos de datos de ZFS en rpool2. Los conjuntos de datos se crean con el comando lucreate.
# zpool create rpool2 c0t2d0s5 # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G - |
La nueva agrupación root de ZFS, rpool2, se crea en el segmento de disco c0t2d0s5.
# lucreate -n new-zfsBE -p rpool2 # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool2/ROOT/ 5.38G 57.6G 18K /rpool2/ROOT rpool2/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.new.luupdall.109859 rpool2/dump 3.99G - 3.99G - rpool2/swap 3.99G - 3.99G - rpool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G - |
El nuevo entorno de inicio, new-zfsBE, se crea en rpool2 junto con los demás conjuntos de datos, ROOT, dump y swap. El entorno de inicio, new-zfsBE, está listo para ser actualizado y activado.
Si está creando un entorno de inicio desde otro origen que no sea el sistema en ejecución, debe utilizar el comando lucreate con la opción -s. La opción -s funciona del mismo modo que para un sistema de archivos UFS. La opción -s proporciona la ruta al sistema de archivos root alternativo (/). Este sistema de archivos root alternativo (/) es el origen para la creación de una nueva agrupación root de ZFS. La raíz puede ser un sistema de archivos root de UFS (/) o una agrupación root de ZFS. El proceso de copia puede tardar, dependiendo del sistema.
El siguiente comando crea una agrupación root de ZFS desde una agrupación root de ZFS existente. La opción -n asigna el nombre al entorno de inicio que se creará, new-zfsBE. La opción -s especifica el entorno de inicio, source-zfsBE, que se utilizará como origen de la copia en lugar del entorno de inicio que está en ejecución. La opción -p especifica que el nuevo entorno de inicio se colocará en newpool2.
# lucreate -n new-zfsBE -s source-zfsBE -p rpool2 |
El entorno de inicio, new-zfsBE, está listo para ser actualizado y activado.
Puede utilizar Actualización automática de Solaris para migrar las zonas no globales a un sistema de archivos raíz ZFS. En el Capítulo 14Actualización automática de Solaris para ZFS con zonas no globales instaladas podrá ver una descripción general, información sobre planificación y procedimientos detallados.
Para obtener información adicional sobre los temas de este capítulo, consulte los recursos de la Tabla 11–1.
Tabla 11–1 Recursos adicionales
Recurso |
Ubicación |
---|---|
Para obtener información sobre ZFS, incluida una descripción general, planificación e instrucciones detalladas | |
Para utilizar Actualización automática de Solaris en un sistema con sistemas de archivos UFS |
Parte I, Actualización con Actualización automática de Solaris de este manual |
Este capítulo muestra las directrices y los requisitos para los parches antes de realizar una migración del sistema de archivos UFS a un sistema de archivos ZFS o antes de crear un entorno de inicio ZFS desde una agrupación raíz ZFS.
La creación de entornos de inicio con Actualización automática de Solaris es una novedad de Solaris 10 10/08. Al actualizar un sistema de archivos UFS con Actualización automática de Solaris, no se modifican ni los parámetros de la línea de comandos ni el funcionamiento de Actualización automática de Solaris. Para utilizar Actualización automática de Solaris en un sistema con sistemas de archivos UFS, consulte la Parte I, Actualización con Actualización automática de Solaris de este manual.
Asegúrese de leer y comprender los siguientes requisitos y limitaciones antes de realizar una migración de un sistema de archivos UFS a un sistema de archivos ZFS o antes de crear un entorno de inicio ZFS desde una agrupación raíz ZFS. Estos requisitos son adicionales a los que se enumeran en el Capítulo 6, Instalación del sistema de archivos raíz de ZFS (planificación) de Guía de instalación de Oracle Solaris 10 9/10: planificación de la instalación y la actualización.
Tabla 12–1 Limitaciones y requisitos
Limitación o requisito |
Descripción |
Información |
|
---|---|---|---|
Debe tener instalado como mínimo Solaris 10 10/08. |
La migración de un sistema de archivos UFS a una agrupación raíz ZFS con Actualización automática de Solaris o la creación de un entorno de inicio es una novedad de Solaris 10 10/08. Esta versión contiene el software necesario para utilizar Actualización automática de Solaris con ZFS. Debe tener como mínimo esta versión instalada para utilizar ZFS. | ||
Espacio en disco |
La cantidad de espacio de agrupación disponible para un sistema de archivos raíz ZFS depende de la cantidad de memoria física, el espacio disponible en el disco y la cantidad de entornos de inicio que necesite crear. |
Para ver una explicación, consulte Requisitos de espacio en disco para una instalación de ZFS de Guía de instalación de Oracle Solaris 10 9/10: planificación de la instalación y la actualización. |
|
Al migrar desde un sistema de archivos root de UFS ( /) a una agrupación root de ZFS, tenga en cuenta los siguientes requisitos. |
|
|
|
Al migrar sistemas de archivos compartidos, no se pueden copiar en un segmento distinto de la nueva agrupación root de ZFS. |
Por ejemplo, al actualizar un sistema de archivos raíz UFS (/) con Actualización automática de Solaris, puede utilizar la opción -m para copiar el sistema de archivos /export file en otro dispositivo. No tiene la opción -m de copiar el sistema de archivos compartido en una agrupación de ZFS. | ||
Al migrar un sistema de archivos root de UFS que contiene zonas no globales, los sistemas de archivos compartidos no se migran. |
En un sistema con un sistema de archivos root de UFS (/) y zonas no globales instaladas, las zonas no globales se migran si la zona se encuentra en un sistema de archivos crítico como parte de la migración de UFS a ZFS. O bien la zona se clona al actualizar en la misma agrupación ZFS. Si hay una zona no global en un sistema de archivos UFS compartido (/), para migrar a una agrupación raíz ZFS, primero debe actualizar la zona, como en las versiones anteriores de Solaris. |
|
|
No utilice el comando ZFS rename. |
La función Actualización automática de Solaris no se ve afectada por el cambio de nombre, y los comandos posteriores, como ludelete, fallarán. De hecho, no debe cambiar el nombre de los sistemas de archivos y agrupaciones ZFS si tiene entornos de inicio que desea seguir utilizando. | ||
Configure las propiedades del conjunto de datos antes de utilizar el comando lucreate. |
Actualización automática de Solaris crea los conjuntos de datos para el entorno de inicio y los volúmenes ZFS para el área de intercambio y el dispositivo de volcado, pero no tiene en cuenta las modificaciones de las propiedades de los conjuntos de datos. Esto significa que, si desea activar una propiedad de conjunto de datos en el nuevo entorno de inicio, debe configurar la propiedad antes de utilizar el comando lucreate. Por ejemplo:
|
Consulte Introducción a las propiedades de ZFS de Guía de administración de Oracle Solaris ZFS. |
|
Al crear un entorno de inicio ZFS en la misma agrupación raíz ZFS, no puede utilizar las opciones de incluir y excluir del comando lucreate para personalizar el contenido. |
No puede utilizar las opciones -f, -o, -y, - Y y -z para incluir o excluir archivos del entorno de inicio principal al crear un entorno de inicio en la misma agrupación raíz ZFS. Sin embargo, puede utilizar estas opciones en los siguientes casos:
|
Para obtener información sobre el uso de las opciones para incluir y excluir, consulte Para crear un entorno de inicio y personalizar el contenido. |
|
No puede utilizar Actualización automática de Solaris para actualizar sistemas de archivos ZFS que no sean raíz. |
Para obtener información adicional sobre los temas que se incluyen en este capítulo, consulte los recursos de la Tabla 12–2.
Tabla 12–2 Recursos adicionales
Recurso |
Ubicación |
---|---|
Para obtener más información sobre cómo planificar una instalación de ZFS | |
Para obtener información sobre ZFS, incluida una descripción general, planificación e instrucciones detalladas | |
Para utilizar Actualización automática de Solaris en un sistema con sistemas de archivos UFS |
Parte I, Actualización con Actualización automática de Solaris de este manual |
Este capítulo describe los procedimientos necesarios para crear un entorno de inicio ZFS cuando se utiliza Actualización automática de Solaris.
La migración de un sistema de archivos UFS a una agrupación raíz ZFS o la creación de entornos de inicio ZFS con Actualización automática de Solaris es una novedad que se incluye a partir de Solaris 10 10/08. Para utilizar Actualización automática de Solaris en un sistema con sistemas de archivos UFS, consulte la Parte I, Actualización con Actualización automática de Solaris de este manual.
En este capítulo se describen las tareas siguientes:
Migración de un sistema de archivos UFS a un sistema de archivos ZFS
Creación de un entorno de inicio en la misma agrupación raíz ZFS
Creación de un entorno de inicio en una nueva agrupación raíz
Creación de un entorno de inicio desde un origen que no sea el sistema en ejecución
Para conocer los procedimientos sobre el uso de ZFS si hay instaladas zonas no globales, consulte el Capítulo 14Actualización automática de Solaris para ZFS con zonas no globales instaladas.
Este procedimiento describe cómo migrar un sistema de archivos UFS a un sistema de archivos ZFS. El proceso de creación de un entorno de inicio proporciona un método para copiar sistemas de archivos críticos de un entorno de inicio UFS activo a una agrupación raíz ZFS. El comando lucreate copia los sistemas de archivos críticos en un nuevo entorno de inicio en una agrupación raíz ZFS. Los sistemas de archivos definidos por el usuario que se pueden compartir no se copian y no se comparten con el entorno de inicio UFS. Asimismo, /swap no se comparte entre el sistema de archivos UFS y la agrupación root de ZFS. Para obtener una descripción general de los sistemas de archivos críticos y compartibles, consulte Tipos de sistemas de archivos.
Para migrar un sistema de archivos root de UFS activo (/) a una agrupación root de ZFS, debe proporcionar el nombre de la agrupación root. Los sistemas de archivos críticos se copian en la agrupación root.
Antes de ejecutarla por primera vez, debe instalar los paquetes más recientes de Actualización automática de Solaris de los medios de instalación, así como los parches que se muestran en el documento de información 206844 de SunSolve. Busque el documento de información 206844 (anteriormente 72099) en el sitio web de SunSolve.
Los parches y paquetes más recientes aseguran que dispone en la versión de todas las correcciones de errores más recientes y las nuevas funciones. Instale todos los parches pertinentes para el sistema antes de proceder a crear un nuevo entorno de inicio.
A continuación se describen los subpasos que figuran en el documento de información de SunSolve 206844.
El uso de Actualización automática de Solaris para crear entornos de inicio ZFS requiere como mínimo la instalación de Solaris 10 10/08. Las versiones anteriores no tienen ZFS ni Actualización automática de Solaris para llevar a cabo las tareas.
Conviértase en superusuario o asuma una función similar.
Las funciones incluyen autorizaciones y comandos con privilegios. Para obtener más información sobre las funciones, consulte Configuring RBAC (Task Map) de System Administration Guide: Security Services.
En el sitio web de SunSolve, siga las instrucciones del documento de información 206844 para agregar y quitar paquetes en Actualización automática de Solaris.
Los tres paquetes de Actualización automática de Solaris, SUNWluu, SUNWlur y SUNWlucfg, contienen el software necesario para actualizar mediante Actualización automática de Solaris. Los paquetes contienen el software ya instalado, nuevas funciones y soluciones de errores. La actualización a la versión de destino no será factible a menos que suprima los paquetes ya instalados e instale los nuevos antes de utilizar Actualización automática de Solaris. El paquete SUMWlucfg es una novedad disponible a partir de Solaris 10 8/07. Si utiliza paquetes de Actualización automática de Solaris de una versión anterior a Solaris 10 8/07, no necesita eliminar este paquete.
# pkgrm SUNWlucfg SUNWluu SUNWlur |
Instale los nuevos paquetes de Actualización automática de Solaris desde la versión a la que está actualizando. Para obtener instrucciones, consulte Instalación de Actualización automática de Solaris.
Antes de ejecutar Actualización automática de Solaris, se le solicita que instale los parches siguientes. Estas revisiones garantizan que la versión incluya todas las correcciones de errores y las nuevas funciones.
Para asegurarse de que dispone de la lista de parches más reciente, consulte SunSolve. Busque el documento de información 206844 (anteriormente 72099) en el sitio web de SunSolve.
Si está almacenando las revisiones en un disco local, cree un directorio como /var/tmp/lupatches y descargue en él las revisiones.
En el sitio web de SunSolve , obtenga la lista de revisiones.
Vaya al directorio de parches.
# cd /var/tmp/lupatches |
Instale las revisiones con el comando patchadd.
# patchadd patch_id |
id_parche es el número o los números de parche. Si especifica varios nombres de revisiones, sepárelos con espacios.
Los parches deben aplicarse en el orden especificado en el documento informativo 206844.
Reinicie el sistema si es necesario. Es necesario reiniciar el sistema para que se apliquen determinadas revisiones.
sólo x86: es necesario reiniciar el sistema o Actualización automática de Solaris fallará.
# init 6 |
Ahora tiene los paquetes y los parches necesarios para una migración sin problemas.
Cree una agrupación root de ZFS.
La agrupación raíz ZFS debe encontrarse en un único segmento para poder iniciarse y actualizarse.
# zpool create rpool c0t1d0s5 |
Especifica el nombre de la nueva agrupación root de ZFS que se creará.
Crea la nueva agrupación root en el segmento de disco, c0t1d0s5.
Para obtener información sobre cómo crear una agrupación raíz, consulte Guía de administración de Oracle Solaris ZFS.
Migre un sistema de archivos root de UFS (/) a una nueva agrupación root de ZFS.
# lucreate [-c ufsBE] -n new-zfsBE -p rpool |
Asigne el nombre EIufs al entorno de inicio UFS activo. Esta opción no es obligatoria y sólo se utiliza cuando se crea el primer entorno de inicio. Si ejecuta el comando lucreate por primera vez y omite la opción -c, el software crea un nombre predeterminado.
Asigna el nombre new-zfsBE al entorno de inicio que se creará. El nombre debe ser exclusivo dentro del sistema.
Coloca el sistema de archivos root de ZFS que acaba de crear (/) en la agrupación root de ZFS definida en rpool.
La creación del nuevo entorno de inicio ZFS podría llevar algún tiempo. Los datos del sistema de archivos UFS se copian en la agrupación root de ZFS. Una vez creado el entorno de inicio inactivo, puede utilizar el comando luupgrade o luactivate para actualizar o activar el nuevo entorno de inicio ZFS.
(Opcional) Compruebe que el entorno de inicio esté completo.
En este ejemplo, el comando lustatus indica si la creación del entorno de inicio está terminada y si dicho entorno se puede iniciar.
# lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ----------------------------------------------------------------- ufsBE yes yes yes no - new-zfsBE yes no no yes - |
(Opcional) Compruebe la información de conjunto de datos básica en el sistema.
El comando list muestra los nombres de todos los conjuntos de datos en el sistema. En este ejemplo, rpool es el nombre de la agrupación ZFS y new-zfsBE es el nombre del entorno de inicio ZFS que se acaba de crear.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 9.29G 57.6G 20K /rpool rpool/ROOT 5.38G 57.6G 18K /rpool/ROOT rpool/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.alt.luupdall.110034 rpool/dump 1.95G - 1.95G - rpool/swap 1.95G - 1.95G - |
Los puntos de montaje que se enumeran para el nuevo entorno de inicio son temporales hasta que se ejecuta el comando luactivate. Los volúmenes /dump y /swap no se comparten con el entorno de inicio UFS original, pero se comparten en la agrupación raíz ZFS y los entornos de inicio de la agrupación raíz.
Ahora puede actualizar y activar el nuevo entorno de inicio. Consulte el Ejemplo 13–1.
En este ejemplo, la nueva agrupación root de ZFS, rpool, se crea en un segmento independiente, C0t0d0s4. El comando lucreate migra el entorno de inicio UFS en ejecución,c0t0d0, al nuevo entorno de inicio ZFS, new-zfsBE, y coloca el nuevo entorno de inicio en rpool.
# zpool create rpool C0t0d0s4 # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 9.29G 57.6G 20K /rpool # lucreate -c c0t0d0 -n new-zfsBE -p rpool Analyzing system configuration. Current boot environment is named <c0t0d0>. Creating initial configuration for primary boot environment <c0t0d0>. The device </dev/dsk/c0t0d0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <c0t0d0> PBE Boot Device </dev/dsk/c0t0d0>. Comparing source boot environment <c0t0d0> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <new-zfsBE>. Source boot environment is <c0t0d0>. Creating boot environment <new-zfsBE>. Creating file systems on boot environment <new-zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/new-zfsBE>. Populating file systems on boot environment <new-zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </>. Making boot environment <zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-cBc.mnt updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive Population of boot environment <new-zfsBE> successful. Creation of boot environment <new-zfsBE> successful. # lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ c0t0d0 yes yes yes no - new-zfsBE yes no no yes - # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 9.29G 57.6G 20K /rpool rpool/ROOT 5.38G 57.6G 18K /rpool/ROOT rpool/ROOT/zfsBE 5.38G 57.6G 551M rpool/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.alt.luupdall.110034 rpool/dump 1.95G - 1.95G - rpool/swap 1.95G - 1.95G - |
Ahora puede actualizar o activar el nuevo entorno de inicio.
En este ejemplo, el nuevo entorno de inicio se actualiza utilizando el comando luupgrade de una imagen que se almacena en la ubicación que indica la opción -s.
# luupgrade -n zfsBE -u -s /net/install/export/s10/combined.s10 51135 blocks miniroot filesystem is <lofs> Mounting miniroot at </net/install/export/solaris_10/combined.solaris_10_wos /Solaris_10/Tools/Boot> Validating the contents of the media </net/install/export/s10/combined.s10>. The media is a standard Solaris media. The media contains an operating system upgrade image. The media contains Solaris version <10_1008>. Constructing upgrade profile to use. Locating the operating system upgrade program. Checking for existence of previously scheduled Live Upgrade requests. Creating upgrade profile for BE <zfsBE>. Determining packages to install or upgrade for BE <zfsBE>. Performing the operating system upgrade of the BE <zfsBE>. CAUTION: Interrupting this process may leave the boot environment unstable or unbootable. Upgrading Solaris: 100% completed Installation of the packages from this media is complete. Adding operating system patches to the BE <zfsBE>. The operating system patch installation is complete. INFORMATION: The file /var/sadm/system/logs/upgrade_log on boot environment <zfsBE> contains a log of the upgrade operation. INFORMATION: The file var/sadm/system/data/upgrade_cleanup on boot environment <zfsBE> contains a log of cleanup operations required. INFORMATION: Review the files listed above. Remember that all of the files are located on boot environment <zfsBE>. Before you activate boot environment <zfsBE>, determine if any additional system maintenance is required or if additional media of the software distribution must be installed. The Solaris upgrade of the boot environment <zfsBE> is complete. |
El nuevo entorno de inicio se puede activar en cualquier momento después de crearse.
# luactivate new-zfsBE ********************************************************************** The target boot environment has been activated. It will be used when you reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You MUST USE either the init or the shutdown command when you reboot. If you do not use either init or shutdown, the system will not boot using the target BE. ********************************************************************** In case of a failure while booting to the target BE, the following process needs to be followed to fallback to the currently working boot environment: 1. Enter the PROM monitor (ok prompt). 2. Change the boot device back to the original boot environment by typing: setenv boot-device /pci@1f,0/pci@1/scsi@4,1/disk@2,0:a 3. Boot to the original boot environment by typing: boot ********************************************************************** Modifying boot archive service Activation of boot environment <new-zfsBE> successful. |
Reinicie el sistema y seleccione el entorno de inicio ZFS.
# init 6 # svc.startd: The system is coming down. Please wait. svc.startd: 79 system services are now being stopped. . . . |
Si recupera un entorno de inicio UFS, necesita importar de nuevo las agrupaciones de almacenamiento ZFS que se hayan creado en el entorno de inicio ZFS porque no estarán disponibles de forma automática en el entorno de inicio UFS. Verá mensajes similares al ejemplo siguiente cuando vuelva al entorno de inicio UFS.
# luactivate c0t0d0 WARNING: The following files have changed on both the current boot environment <new-zfsBE> zone <global> and the boot environment to be activated <c0t0d0>: /etc/zfs/zpool.cache INFORMATION: The files listed above are in conflict between the current boot environment <zfsBE> zone <global> and the boot environment to be activated <c0t0d0>. These files will not be automatically synchronized from the current boot environment <new-zfsBE> when boot environment <c0t0d0> |
Si tiene una agrupación raíz ZFS y desea crear un nuevo entorno de inicio ZFS en dicha agrupación, realice los pasos siguientes. Una vez creado el entorno de inicio inactivo, el nuevo entorno de inicio se puede actualizar y activar según sea conveniente. La opción -p no es necesaria cuando se crea un entorno de inicio en la misma agrupación.
Antes de ejecutarla por primera vez, debe instalar los paquetes más recientes de Actualización automática de Solaris de los medios de instalación, así como los parches que se muestran en el documento de información 206844 de SunSolve. Busque el documento de información 206844 (anteriormente 72099) en el sitio web de SunSolve.
Los parches y paquetes más recientes aseguran que dispone en la versión de todas las correcciones de errores más recientes y las nuevas funciones. Instale todos los parches pertinentes para el sistema antes de proceder a crear un nuevo entorno de inicio.
A continuación se describen los subpasos que figuran en el documento de información de SunSolve 206844.
El uso de Actualización automática de Solaris para crear entornos de inicio ZFS requiere como mínimo la instalación de Solaris 10 10/08. Las versiones anteriores no tienen ZFS ni Actualización automática de Solaris para llevar a cabo las tareas.
Conviértase en superusuario o asuma una función similar.
Las funciones incluyen autorizaciones y comandos con privilegios. Para obtener más información sobre las funciones, consulte Configuring RBAC (Task Map) de System Administration Guide: Security Services.
En el sitio web de SunSolve, siga las instrucciones del documento de información 206844 para agregar y quitar paquetes en Actualización automática de Solaris.
Los tres paquetes de Actualización automática de Solaris, SUNWluu, SUNWlur y SUNWlucfg, contienen el software necesario para actualizar mediante Actualización automática de Solaris. Los paquetes contienen el software ya instalado, nuevas funciones y soluciones de errores. La actualización a la versión de destino no será factible a menos que suprima los paquetes ya instalados e instale los nuevos antes de utilizar Actualización automática de Solaris. El paquete SUMWlucfg es una novedad disponible a partir de Solaris 10 8/07. Si utiliza paquetes de Actualización automática de Solaris de una versión anterior a Solaris 10 8/07, no necesita eliminar este paquete.
El paquete SUMWlucfg es una novedad disponible a partir de Solaris 10 8/07. Si utiliza paquetes de una versión anterior de Actualización automática de Solaris, no necesita eliminar este paquete.
# pkgrm SUNWlucfg SUNWluu SUNWlur |
Instale los nuevos paquetes de Actualización automática de Solaris. Para obtener instrucciones, consulte Instalación de Actualización automática de Solaris.
Antes de ejecutar Actualización automática de Solaris, se le solicita que instale los parches siguientes. Estas revisiones garantizan que la versión incluya todas las correcciones de errores y las nuevas funciones.
Para asegurarse de que dispone de la lista de parches más reciente, consulte SunSolve. Busque el documento de información 206844 (anteriormente 72099) en el sitio web de SunSolve.
Si está almacenando las revisiones en un disco local, cree un directorio como /var/tmp/lupatches y descargue en él las revisiones.
En el sitio web de SunSolve , obtenga la lista de revisiones.
Cambie al directorio del parche, como en este ejemplo.
# cd /var/tmp/lupatches |
Instale las revisiones con el comando patchadd.
# patchadd -M path-to-patches patch_id patch_id |
ruta_a_parches es la ruta de acceso al directorio de parches, como por ejemplo, /var/tmp/lupatches. id_parche es el número o los números de parche. Si especifica varios nombres de revisiones, sepárelos con espacios.
Los parches deben aplicarse en el orden especificado en el documento informativo 206844.
Reinicie el sistema si es necesario. Es necesario reiniciar el sistema para que se apliquen determinadas revisiones.
sólo x86: es necesario reiniciar el sistema o Actualización automática de Solaris fallará.
# init 6 |
Ahora tiene los paquetes y los parches necesarios para crear correctamente un nuevo entorno de inicio.
Cree el nuevo entorno de inicio.
# lucreate [-c zfsBE] -n new-zfsBE |
Asigna el nombre zfsBE al entorno de inicio actual. Esta opción no es obligatoria y sólo se utiliza cuando se crea el primer entorno de inicio. Si ejecuta lucreate por primera vez y omite la opción -c, el software crea un nombre predeterminado.
Asigna el nombre al entorno de inicio que se creará. El nombre debe ser exclusivo dentro del sistema.
La creación del nuevo entorno de inicio es prácticamente instantánea. Se crea una instantánea de cada conjunto de datos de la agrupación root de ZFS actual, y luego se crea un clónico de cada instantánea. Las instantáneas no ocupan mucho espacio en disco, y el proceso en sí ocupa un espacio mínimo. Una vez creado el entorno de inicio inactivo, puede utilizar el comando luupgrade o luactivate para actualizar o activar el nuevo entorno de inicio ZFS.
(Opcional) Compruebe que el entorno de inicio esté completo.
El comando lustatus informa de si la creación del entorno de inicio está terminada y si dicho entorno se puede iniciar.
# lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes - |
(Opcional) Compruebe la información de conjunto de datos básica en el sistema.
En este ejemplo, la agrupación root de ZFS se denomina rpool, y el símbolo @ indica una instantánea. Los nuevos puntos de montaje del entorno de inicio son temporales hasta que se ejecuta el comando luactivate. Los volúmenes /dump y /swap se comparten con la agrupación raíz ZFS y los entornos de inicio de la agrupación raíz.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 9.29G 57.6G 20K /rpool rpool/ROOT 5.38G 57.6G 18K /rpool/ROOT rpool/ROOT/zfsBE 5.38G 57.6G 551M rpool/ROOT/zfsBE@new-zfsBE 66.5K - 551M - rpool/ROOT/new-zfsBE 85.5K 57.6G 551M /tmp/.alt.103197 rpool/dump 1.95G - 1.95G - rpool/swap 1.95G - 1.95G - |
Ahora puede actualizar y activar el nuevo entorno de inicio. Consulte el Ejemplo 13–2.
Los siguientes comandos crean un nuevo entorno de inicio ZFS, new-zfsBE . La opción -p no es necesaria porque el entorno de inicio se está creando en la misma agrupación raíz.
# lucreate [-c zfsBE] -n new-zfsBE Analyzing system configuration. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Creating configuration for boot environment new-zfsBE. Source boot environment is zfsBE. Creating boot environment new-zfsBE. Cloning file systems from boot environment zfsBE to create boot environment new-zfsBE. Creating snapshot for <rpool> on <rpool> Creating clone for <rpool>. Setting canmount=noauto for <rpool> in zone <global> on <rpool>. Population of boot environment zfsBE successful on <rpool>. # lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes - # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 9.29G 57.6G 20K /rpool rpool/ROOT 5.38G 57.6G 18K /rpool/ROOT rpool/ROOT/zfsBE 5.38G 57.6G 551M rpool/ROOT/zfsBE@new-zfsBE 66.5K - 551M - rpool/ROOT/new-zfsBE 85.5K 57.6G 551M /tmp/.alt.103197 rpool/dump 1.95G - 1.95G - rpool/swap 1.95G - 1.95G - |
Ahora puede actualizar y activar el nuevo entorno de inicio. Para ver un ejemplo de actualización de un entorno de inicio ZFS, consulte el Ejemplo 13–1. Para ver más ejemplos de uso del comando luupgrade, consulte el Capítulo 5Actualización con Actualización automática de Solaris.
# luactivate new-zfsBE ********************************************************************** The target boot environment has been activated. It will be used when you reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You MUST USE either the init or the shutdown command when you reboot. If you do not use either init or shutdown, the system will not boot using the target BE. ********************************************************************** In case of a failure while booting to the target BE, the following process needs to be followed to fallback to the currently working boot environment: 1. Enter the PROM monitor (ok prompt). 2. Change the boot device back to the original boot environment by typing: setenv boot-device /pci@1f,0/pci@1/scsi@4,1/disk@2,0:a 3. Boot to the original boot environment by typing: boot ********************************************************************** Modifying boot archive service Activation of boot environment <new-zfsBE> successful. |
Reinicie el sistema y seleccione el entorno de inicio ZFS.
# init 6 # svc.startd: The system is coming down. Please wait. svc.startd: 79 system services are now being stopped. . . . |
Si tiene una agrupación raíz ZFS y desea crear un nuevo entorno de inicio ZFS en una nueva agrupación raíz, consulte el procedimiento siguiente. Una vez creado el entorno de inicio inactivo, el nuevo entorno de inicio se puede actualizar y activar según sea conveniente. La opción -p es necesaria para anotar la ubicación del nuevo entorno de inicio. La agrupación raíz ZFS existente debe encontrarse en un segmento independiente para poder iniciarse y actualizarse.
Antes de ejecutarla por primera vez, debe instalar los paquetes más recientes de Actualización automática de Solaris de los medios de instalación, así como los parches que se muestran en el documento de información 206844 de SunSolve. Busque el documento de información 206844 (anteriormente 72099) en el sitio web de SunSolve.
Los parches y paquetes más recientes aseguran que dispone en la versión de todas las correcciones de errores más recientes y las nuevas funciones. Instale todos los parches pertinentes para el sistema antes de proceder a crear un nuevo entorno de inicio.
A continuación se describen los subpasos que figuran en el documento de información de SunSolve 206844.
El uso de Actualización automática de Solaris para crear entornos de inicio ZFS requiere como mínimo la instalación de Solaris 10 10/08. Las versiones anteriores no tienen ZFS ni Actualización automática de Solaris para llevar a cabo las tareas.
Conviértase en superusuario o asuma una función similar.
Las funciones incluyen autorizaciones y comandos con privilegios. Para obtener más información sobre las funciones, consulte Configuring RBAC (Task Map) de System Administration Guide: Security Services.
En el sitio web de SunSolve, siga las instrucciones del documento de información 206844 para agregar y quitar paquetes en Actualización automática de Solaris.
Los tres paquetes de Actualización automática de Solaris, SUNWluu, SUNWlur y SUNWlucfg, contienen el software necesario para actualizar mediante Actualización automática de Solaris. Los paquetes contienen el software ya instalado, nuevas funciones y soluciones de errores. La actualización a la versión de destino no será factible a menos que suprima los paquetes ya instalados e instale los nuevos antes de utilizar Actualización automática de Solaris. El paquete SUMWlucfg es una novedad disponible a partir de Solaris 10 8/07. Si utiliza paquetes de Actualización automática de Solaris de una versión anterior a Solaris 10 8/07, no necesita eliminar este paquete.
El paquete SUMWlucfg es una novedad disponible a partir de Solaris 10 8/07. Si utiliza paquetes de una versión anterior de Actualización automática de Solaris, no necesita eliminar este paquete.
# pkgrm SUNWlucfg SUNWluu SUNWlur |
Instale los nuevos paquetes de Actualización automática de Solaris. Para obtener instrucciones, consulte Instalación de Actualización automática de Solaris.
Antes de ejecutar Actualización automática de Solaris, se le solicita que instale los parches siguientes. Estas revisiones garantizan que la versión incluya todas las correcciones de errores y las nuevas funciones.
Para asegurarse de que dispone de la lista de parches más reciente, consulte SunSolve. Busque el documento de información 206844 (anteriormente 72099) en el sitio web de SunSolve.
Si está almacenando las revisiones en un disco local, cree un directorio como /var/tmp/lupatches y descargue en él las revisiones.
En el sitio web de SunSolve , obtenga la lista de revisiones.
Cambie al directorio del parche, como en este ejemplo.
# cd /var/tmp/lupatches |
Instale las revisiones con el comando patchadd.
# patchadd -M path-to-patches patch_id patch_id |
ruta_a_parches es la ruta de acceso al directorio de parches, como por ejemplo, /var/tmp/lupatches. id_parche es el número o los números de parche. Si especifica varios nombres de revisiones, sepárelos con espacios.
Los parches deben aplicarse en el orden especificado en el documento informativo 206844.
Reinicie el sistema si es necesario. Es necesario reiniciar el sistema para que se apliquen determinadas revisiones.
sólo x86: es necesario reiniciar el sistema o Actualización automática de Solaris fallará.
# init 6 |
Ahora tiene los paquetes y los parches necesarios para una migración sin problemas.
Cree una agrupación root de ZFS.
La agrupación raíz ZFS debe encontrarse en un único segmento para poder iniciarse y actualizarse.
# zpool create rpool2 c0t1d0s5 |
Nombres de la nueva agrupación root de ZFS.
Especifica que se coloque rpool2 en el segmento iniciable, c0t1d0s5.
Para obtener información sobre cómo crear una agrupación raíz, consulte Guía de administración de Oracle Solaris ZFS.
Cree el nuevo entorno de inicio.
# lucreate [-c zfsBE] -n new-zfsBE -p rpool2 |
Asigna el nombre zfsBE al entorno de inicio ZFS actual.
Asigna el nombre al entorno de inicio que se creará. El nombre debe ser exclusivo dentro del sistema.
Coloca el entorno de inicio raíz ZFS que acaba de crear en la agrupación raíz ZFS definida en rpool2.
La creación del nuevo entorno de inicio ZFS podría llevar algún tiempo. Los datos del sistema de archivos se copian en la nueva agrupación root de ZFS. Una vez creado el entorno de inicio inactivo, puede utilizar el comando luupgrade o luactivate para actualizar o activar el nuevo entorno de inicio ZFS.
(Opcional) Compruebe que el entorno de inicio esté completo.
El comando lustatus informa de si la creación del entorno de inicio está terminada y si dicho entorno se puede iniciar.
# lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes - |
(Opcional) Compruebe la información de conjunto de datos básica en el sistema.
El ejemplo siguiente muestra los nombres de todos los conjuntos de datos del sistema. El punto de montaje que se especifica para el nuevo entorno de inicio es temporal hasta que se ejecuta el comando luactivate. El nuevo entorno de inicio comparte los volúmenes, rpool2/dump y rpool2/swap, con el entorno de inicio ZFS rpool2.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool2/ROOT/ 5.38G 57.6G 18K /rpool2/ROOT rpool2/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.new.luupdall.109859 rpool2/dump 3.99G - 3.99G - rpool2/swap 3.99G - 3.99G - rpool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G - |
Ahora puede actualizar y activar el nuevo entorno de inicio. Consulte el Ejemplo 13–3.
En este ejemplo, se crea una nueva agrupación root de ZFS (rpool) en un segmento independiente (c0t2s0s5). El comando lucreate crea un nuevo entorno de inicio ZFS, new-zfsBE. Se necesita la opción -p porque el entorno de inicio se está creando en una agrupación raíz distinta.
# zpool create rpool C0t1d0s5 # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G - # lucreate -c rpool -n new-zfsBE -p rpool2 Analyzing system configuration. Current boot environment is named <rpool>. Creating initial configuration for primary boot environment <rpool>. The device </dev/dsk/c0t0d0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <rpool> PBE Boot Device </dev/dsk/rpool>. Comparing source boot environment <rpool> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <new-zfsBE>. Source boot environment is <rpool>. Creating boot environment <new-zfsBE>. Creating file systems on boot environment <new-zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool2/ROOT/new-zfsBE>. Populating file systems on boot environment <new-zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </>. Making boot environment <new-zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-cBc.mnt updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive Population of boot environment <new-zfsBE> successful. Creation of boot environment <new-zfsBE> successful. # lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes - # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool2/ROOT/ 5.38G 57.6G 18K /rpool2/ROOT rpool2/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.new.luupdall.109859 rpool2/dump 3.99G - 3.99G - rpool2/swap 3.99G - 3.99G - rpool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G - |
Si tiene una agrupación raíz o un entorno de inicio UFS que no se utilice como entorno de inicio activo, puede utilizar el ejemplo siguiente para crear un entorno de inicio ZFS desde este entorno de inicio. Una vez creado el entorno de inicio ZFS, este nuevo entorno de inicio se puede actualizar y activar según sea preciso.
Si está creando un entorno de inicio desde otro origen que no sea el sistema en ejecución, debe utilizar el comando lucreate con la opción -s. La opción -s funciona del mismo modo que para un sistema de archivos UFS. La opción -s proporciona la ruta al sistema de archivos root alternativo (/). Este sistema de archivos root alternativo (/) es el origen para la creación de una nueva agrupación root de ZFS. La raíz puede ser un sistema de archivos root de UFS (/) o una agrupación root de ZFS. El proceso de copia puede tardar, dependiendo del sistema.
El ejemplo siguiente muestra cómo se utiliza la opción -s para crear un entorno de inicio en otra agrupación raíz ZFS.
El siguiente comando crea una agrupación root de ZFS desde una agrupación root de ZFS existente. La opción -n asigna el nombre al entorno de inicio que se creará, new-zfsBE. La opción -s especifica el entorno de inicio (rpool3) que se utilizará como origen de la copia en lugar del entorno de inicio en ejecución. La opción -p indica que el nuevo entorno de inicio se creará en rpool2.
# lucreate -n new-zfsBE -s rpool3 -p rpool2 # lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - zfsBE2 yes no no yes - zfsBE3 yes no no yes - new-zfsBE yes no no yes - # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool2/ROOT/ 5.38G 57.6G 18K /rpool2/ROOT rpool2/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.new.luupdall.109859 rpool2/dump 3.99G - 3.99G - rpool2/swap 3.99G - 3.99G - rpool3 9.29G 57.6G 20K /rpool2 rpool3/ROOT/ 5.38G 57.6G 18K /rpool2/ROOT rpool3/ROOT/zfsBE3 5.38G 57.6G 551M /tmp/.new.luupdall.109859 rpool3/dump 3.99G - 3.99G - rpool3/swap 3.99G - 3.99G - prool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G - |
Ahora puede actualizar y activar el nuevo entorno de inicio.
Si se detecta un fallo tras la actualización o la aplicación no es compatible con un componente actualizado, puede recuperar el entorno de inicio original con el comando luactivate.
Si ha migrado a una agrupación raíz ZFS desde un entorno de inicio UFS y luego decide recuperar el entorno de inicio UFS, deberá volver a importar las agrupaciones de almacenamiento ZFS que se crearon en el entorno de inicio ZFS. Estas agrupaciones de almacenamiento ZFS no están disponibles automáticamente en el entorno de inicio UFS. Verá mensajes similares al ejemplo siguiente cuando vuelva al entorno de inicio UFS.
# luactivate c0t0d0 WARNING: The following files have changed on both the current boot environment <new-ZFSbe> zone <global> and the boot environment to be activated <c0t0d0>: /etc/zfs/zpool.cache INFORMATION: The files listed above are in conflict between the current boot environment <ZFSbe> zone <global> and the boot environment to be activated <c0t0d0>. These files will not be automatically synchronized from the current boot environment <new-ZFSbe> when boot environment <c0t0d0> |
Para ver ejemplos de cómo recuperar el entorno de inicio original, consulte el Capítulo 6Recuperación después de un fallo: retorno al entorno de inicio original (tareas).
Para obtener información adicional sobre los temas de este capítulo, consulte los recursos de la Tabla 13–1.
Tabla 13–1 Recursos adicionales
Recurso |
Ubicación |
---|---|
Para obtener información sobre ZFS, incluida una descripción general, planificación e instrucciones detalladas | |
Para utilizar Actualización automática de Solaris en un sistema con sistemas de archivos UFS |
Parte I, Actualización con Actualización automática de Solaris de este manual |
Este capítulo ofrece una descripción general y los procedimientos detallados para migrar un sistema de archivos root de UFS (/) a una agrupación root de ZFS.
La migración de un sistema de archivos raíz UFS (/) a una agrupación raíz ZFS o la creación de entornos de inicio ZFS con Actualización automática de Solaris es una novedad que se incluye a partir de Solaris 10 10/08. Al actualizar un sistema de archivos UFS con Actualización automática de Solaris, no se modifican ni los parámetros de la línea de comandos ni el funcionamiento de Actualización automática de Solaris. Para utilizar Actualización automática de Solaris en un sistema con sistemas de archivos UFS, consulte la Parte I, Actualización con Actualización automática de Solaris de este manual.
Puede utilizar Actualización automática de Solaris para migrar el sistema de archivos raíz UFS (/) con zonas no globales instaladas en una agrupación raíz ZFS. Todas las zonas no globales asociadas con el sistema de archivos también se copian en el nuevo entorno de inicio. Se admiten las siguientes situaciones de migración de zonas no globales:
Combinación de zonas y sistema de archivos root antes de la migración |
Combinación de zonas y sistema de archivos root después de la migración |
---|---|
Sistema de archivos root de UFS con el directorio root de zonas no globales en el sistema de archivos de UFS |
Sistema de archivos root de UFS con el directorio root de zonas no globales en una agrupación root de ZFS |
|
Agrupación root de ZFS con el directorio root de zonas no globales en la agrupación root de ZFS |
Agrupación root de ZFS con el directorio root de zonas no globales en un sistema de archivos de UFS |
|
Sistema de archivos root de UFS con un directorio root de zonas no globales en una agrupación root de ZFS |
Agrupación root de ZFS con el directorio root de zonas no globales en una agrupación root de ZFS |
Sistema de archivos root de UFS con el directorio root de zonas no globales en una agrupación root de ZFS |
|
Agrupación root de ZFS con un directorio root de zonas no globales en una agrupación root de ZFS |
Agrupación root de ZFS con el directorio root de zonas no globales en la agrupación root de ZFS |
En un sistema con un sistema de archivos root de UFS (/) y zonas no globales instaladas, las zonas no globales se migran si la zona se encuentra en un sistema de archivos no compartido como parte de la migración de UFS a ZFS. La zona también se copia cuando se moderniza en la misma agrupación de ZFS. Si hay una zona no global en un sistema de archivos UFS compartido, para migrar a otra agrupación raíz ZFS, primero debe actualizar la zona no global, como en las versiones anteriores de Solaris.
Para obtener de planificación al migrar a una agrupación root de ZFS, consulte Limitaciones y requisitos del sistema para el uso de Actualización automática de Solaris.
Para conocer las limitaciones aplicables a ZFS y las zonas no globales, consulte Uso de ZFS en un sistema Solaris con zonas instaladas de Guía de administración de Oracle Solaris ZFS.
Este capítulo describe cómo migrar de un sistema de archivos root de UFS (/) a una agrupación root de ZFS en un sistema con zonas no globales instaladas. En un sistema de archivos compartido no hay zonas no globales en el sistema de archivos UFS.
El comando lucreate crea un entorno de inicio de una agrupación raíz ZFS desde un sistema de archivos raíz UFS (/). Debe existir una agrupación raíz ZFS antes de utilizar lucreate, y debe crearse con segmentos en lugar de discos completos para poder actualizarse e iniciarse. Este procedimiento muestra cómo se copia una zona no global asociada con el sistema de archivos raíz UFS (/) en el nuevo entorno de inicio de una agrupación raíz ZFS.
En el ejemplo siguiente, la zona no global, myzone, tiene su propio directorio root de zonas no globales en un sistema de archivos root de UFS (/). La zona zzone tiene su propio directorio root de zonas en un sistema de archivos de ZFS de la agrupación de almacenamiento de ZFS, pool. Se utiliza Actualización automática de Solaris para migrar el entorno de inicio UFS, c2t2d0s0, a un entorno de inicio ZFS, zfs2BE. La zona basada en UFS myzone se migra a una nueva agrupación de almacenamiento ZFS, mpool, que se crea antes de la operación de Actualización automática de Solaris. La zona no global basada en ZFS, zzone, se clona pero se conserva en la agrupación ZFS pool , y se migra al nuevo entorno de inicio zfs2BE.
Complete los siguientes pasos la primera vez que utilice Actualización automática de Solaris.
El uso de Actualización automática de Solaris para crear entornos de inicio ZFS requiere como mínimo la instalación de Solaris 10 10/08. Las versiones anteriores no tienen ZFS ni Actualización automática de Solaris para llevar a cabo las tareas.
Si es preciso, elimine los paquetes existentes en el sistema de Actualización automática de Solaris. Si está modernizando a una nueva versión, instale los paquetes desde esa versión.
Los tres paquetes de Actualización automática de Solaris, SUNWluu, SUNWlur y SUNWlucfg, contienen el software necesario para actualizar mediante Actualización automática de Solaris. Los paquetes contienen el software ya instalado, nuevas funciones y soluciones de errores. La actualización a la versión de destino no será factible a menos que suprima los paquetes ya instalados e instale los nuevos antes de utilizar Actualización automática de Solaris.
# pkgrm SUNWlucfg SUNWluu SUNWlur |
Instale los nuevos paquetes de Actualización automática de Solaris desde la versión a la que está actualizando. Para obtener instrucciones, consulte Instalación de Actualización automática de Solaris.
Antes de instalar o ejecutar Actualización automática de Solaris, se le solicita que instale los siguientes parches. Estas revisiones garantizan que la versión incluya todas las correcciones de errores y las nuevas funciones.
Para asegurarse de que dispone de la lista de parches más reciente, consulte SunSolve. Busque el documento de información 206844 (anteriormente 72099) en el sitio web de SunSolve.
Conviértase en superusuario o asuma una función similar.
Las funciones incluyen autorizaciones y comandos con privilegios. Para obtener más información sobre las funciones, consulte Configuring RBAC (Task Map) de System Administration Guide: Security Services.
Si está almacenando las revisiones en un disco local, cree un directorio como /var/tmp/lupatches y descargue en él las revisiones.
En el sitio web de SunSolve , obtenga la lista de revisiones.
Vaya al directorio de parches.
# cd /var/tmp/lupatches |
Instale las revisiones con el comando patchadd.
# patchadd patch_id |
id_parche es el número o los números de parche. Si especifica varios nombres de revisiones, sepárelos con espacios.
Los parches deben aplicarse en el orden especificado en el documento informativo 206844.
Reinicie el sistema si es necesario. Es necesario reiniciar el sistema para que se apliquen determinadas revisiones.
sólo x86: es necesario reiniciar el sistema o Actualización automática de Solaris fallará.
# init 6 |
Cree una agrupación root de ZFS.
La agrupación raíz ZFS debe encontrarse en un único segmento para poder iniciarse y actualizarse.
# zpool create rpool c3t0d0s0 |
En este ejemplo, el nombre de la nueva agrupación root e ZFS que se creará es rpool. La agrupación se crea en un segmento que se puede iniciar, c3t0d0s0.
Para obtener información sobre cómo crear una agrupación raíz, consulte Guía de administración de Oracle Solaris ZFS.
Migre un sistema de archivos root de USF (/) a la nueva agrupación root de ZFS.
# lucreate [-c ufsBE] -n new-zfsBE -p rpool |
Asigne el nombre EIufs al entorno de inicio UFS activo. Esta opción no es obligatoria y sólo se utiliza cuando se crea el primer entorno de inicio. Si ejecuta el comando lucreate por primera vez y omite la opción -c, el software crea un nombre predeterminado.
Asigna el nombre new-zfsBE al entorno de inicio que se creará. El nombre debe ser exclusivo dentro del sistema.
Coloca el sistema de archivos root de ZFS que acaba de crear (/) en la agrupación root de ZFS definida en rpool.
Todas las zonas no globales que no sean compartidas se copian en el nuevo entorno de inicio junto con los sistemas de archivos críticos. La creación del nuevo entorno de inicio ZFS podría tardar un rato. Los datos del sistema de archivos UFS se copian en la agrupación root de ZFS. Una vez creado el entorno de inicio inactivo, puede utilizar el comando luupgrade o luactivate para actualizar o activar el nuevo entorno de inicio ZFS.
(Opcional) Compruebe que el entorno de inicio esté completo.
El comando lustatus informa de si la creación del entorno de inicio está terminada y si dicho entorno se puede iniciar.
# lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ ufsBE yes yes yes no - new-zfsBE yes no no yes - |
(Opcional) Compruebe la información de conjunto de datos básica en el sistema.
El comando list muestra los nombres de todos los conjuntos de datos en el sistema. En este ejemplo, rpool es el nombre de la agrupación ZFS y new-zfsBE es el nombre del entorno de inicio ZFS que se acaba de crear.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 9.29G 57.6G 20K /rpool rpool/ROOT 5.38G 57.6G 18K /rpool/ROOT rpool/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.alt.luupdall.110034 rpool/dump 1.95G - 1.95G - rpool/swap 1.95G - 1.95G - |
Los puntos de montaje que se enumeran para el nuevo entorno de inicio son temporales hasta que se ejecuta el comando luactivate. Los volúmenes /dump y /swap no se comparten con el entorno de inicio UFS original, pero se comparten en la agrupación raíz ZFS y los entornos de inicio de la agrupación raíz.
En el ejemplo siguiente, la zona no global myzone tiene su directorio root de zonas no globales en un sistema de archivos root de UFS (/). La zona zzone tiene su propio directorio root de zonas en un sistema de archivos de ZFS de la agrupación de almacenamiento de ZFS, pool. Se utiliza Actualización automática de Solaris para migrar el entorno de inicio UFS, c2t2d0s0, a un entorno de inicio ZFS, zfs2BE. La zona basada en UFS myzone se migra a una nueva agrupación de almacenamiento ZFS, mpool, que se crea antes de la operación de Actualización automática de Solaris. La zona no global basada en ZFS, zzone, se clona pero se conserva en la agrupación ZFS pool, y se migra al nuevo entorno de inicio de zfs2BE.
# zoneadm list -iv ID NAME STATUS PATH BRAND IP 0 global running / native shared - myzone installed /zones/myzone native shared - zzone installed /pool/zones native shared # zpool create mpool mirror c3t0d0s0 c4td0s0 # lucreate -c c1t2d0s0 -n zfs2BE -p mpool Analyzing system configuration. No name for current boot environment. Current boot environment is named <c1t2d0s0>. Creating initial configuration for primary boot environment <c1t2d0s0>. The device </dev/dsk/c1t2d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <c1t2d0s0> PBE Boot Device </dev/dsk/c1t2d0s0>. Comparing source boot environment <c1t2d0s0> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <zfsBE>. Source boot environment is <c1t2d0s0>. Creating boot environment <zfsBE>. Creating file systems on boot environment <zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>. Populating file systems on boot environment <zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </>. Making boot environment <zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-cBc.mnt updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive Population of boot environment <zfsBE> successful. Creation of boot environment <zfsBE> successful. |
Cuando finalice la operación de lucreate, utilice el comando lustatus para ver el estado del entorno de inicio, como en este ejemplo.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- c1t2d0s0 yes yes yes no - zfsBE yes no no yes - |
# zoneadm list -iv ID NAME STATUS PATH BRAND IP 0 global running / native shared - myzone installed /zones/myzone native shared - zzone installed /pool/zones native shared |
A continuación, utilice el comando luactivate para activar el nuevo entorno de inicio ZFS. Por ejemplo:
# luactivate zfsBE ********************************************************************** The target boot environment has been activated. It will be used when you reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You MUST USE either the init or the shutdown command when you reboot. If you do not use either init or shutdown, the system will not boot using the target BE. ********************************************************************** In case of a failure while booting to the target BE, the following process needs to be followed to fallback to the currently working boot environment: 1. Enter the PROM monitor (ok prompt). 2. Change the boot device back to the original boot environment by typing: setenv boot-device /pci@1f,0/pci@1/scsi@4,1/disk@2,0:a 3. Boot to the original boot environment by typing: boot ********************************************************************** Modifying boot archive service Activation of boot environment <ZFSbe> successful. |
Reinicie el sistema en el entorno de inicio ZFS.
# init 6 # svc.startd: The system is coming down. Please wait. svc.startd: 79 system services are now being stopped. . . . |
Confirme el nuevo entorno de inicio y el estado de las zonas migradas, como en este ejemplo.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- c1t2d0s0 yes yes yes no - zfsBE yes no no yes - |
Si recupera el entorno de inicio UFS, debe importar de nuevo las agrupaciones de almacenamiento ZFS que se hayan creado en el entorno de inicio ZFS, ya que no estarán disponibles automáticamente en el entorno de inicio UFS. Aparecerán mensajes similares a los siguientes cuando vuelva al entorno de inicio UFS.
# luactivate c1t2d0s0 WARNING: The following files have changed on both the current boot environment <ZFSbe> zone <global> and the boot environment to be activated <c1t2d0s0>: /etc/zfs/zpool.cache INFORMATION: The files listed above are in conflict between the current boot environment <ZFSbe> zone <global> and the boot environment to be activated <c1t2d0s0>. These files will not be automatically synchronized from the current boot environment <ZFSbe> when boot environment <c1t2d0s0> |
Para obtener información adicional sobre los temas de este capítulo, consulte los recursos de la Tabla 14–1.
Tabla 14–1 Recursos adicionales
Recurso |
Ubicación |
---|---|
Para obtener información sobre las zonas no globales, incluida una descripción general, planificación e instrucciones detalladas | |
Para obtener información sobre ZFS, incluida una descripción general, planificación e instrucciones detalladas | |
Para obtener información sobre el uso de Actualización automática de Solaris en un sistema con sistemas de archivos UFS |
Parte I, Actualización con Actualización automática de Solaris de este manual, incluido el Capítulo 8Actualización del sistema operativo Solaris en un sistema con zonas no globales instaladas |