Omitir Vínculos de navegación | |
Salir de la Vista de impresión | |
Guía de administración de Oracle Solaris ZFS Oracle Solaris 10 1/13 Information Library (Español) |
1. Sistema de archivos ZFS de Oracle Solaris (introducción)
2. Procedimientos iniciales con Oracle Solaris ZFS
3. Administración de agrupaciones de almacenamiento de Oracle Solaris ZFS
4. Instalación e inicio de un sistema de archivos raíz ZFS Oracle Solaris
Instalación e inicio de un sistema de archivos raíz ZFS Oracle Solaris (información general)
Funciones de instalación de ZFS
Requisitos de instalación y Oracle Solaris Live Upgrade para compatibilidad con ZFS
Requisitos de la versión de Oracle Solaris
Requisitos de instalación para la agrupación raíz ZFS
Requisitos de espacio en disco para agrupaciones raíz ZFS
Requisitos de configuración de la agrupación raíz ZFS
Instalación de un sistema de archivos raíz ZFS (instalación inicial de Oracle Solaris)
Cómo crear una agrupación raíz ZFS reflejada (posterior a la instalación)
Instalación de un sistema de archivos raíz ZFS (instalación de archivo flash de Oracle Solaris)
Instalación de un sistema de archivos raíz ZFS (instalación JumpStart)
Palabras clave de JumpStart para ZFS
Ejemplos de perfil JumpStart ZFS
Problemas de JumpStart para ZFS
Problemas de migración de ZFS relacionados con Live Upgrade
Uso de Live Upgrade para migrar o actualizar un sistema de archivos raíz ZFS (sin zonas)
Uso de Live Upgrade para migrar o actualizar un sistema con zonas (Solaris 10 10/08)
Cómo configurar un sistema de archivos raíz ZFS con raíces de zona en ZFS (Solaris 10 10/08)
ZFS admitido con información de configuración de raíces de zona (al menos Solaris 10 5/09)
Managing Your ZFS Swap and Dump Devices
Ajuste del tamaño de los dispositivos de intercambio y volcado ZFS
Personalización de los volúmenes de intercambio y volcado ZFS
Resolución de problemas de dispositivos de volcado ZFS
Inicio desde un sistema de archivos raíz ZFS
Inicio desde un disco alternativo en una agrupación raíz ZFS reflejada
SPARC: inicio desde un sistema de archivos raíz ZFS
x86: inicio desde un sistema de archivos raíz ZFS
Resolución de problemas de punto de montaje ZFS que impiden un inicio correcto (Solaris 10 10/08)
Cómo resolver problemas de punto de montaje ZFS
Inicio con fines de recuperación en un entorno de inicio root ZFS
Cómo iniciar ZFS en modo a prueba de fallos
Cómo iniciar ZFS desde un medio alternativo
Recuperación de la agrupación raíz ZFS o las instantáneas de la agrupación raíz
Cómo sustituir un disco en la agrupación raíz ZFS
Cómo crear instantáneas de la agrupación raíz
Cómo recrear una agrupación raíz ZFS y restaurar instantáneas de la agrupación raíz
Cómo deshacer instantáneas de agrupaciones raíz a partir de un inicio a prueba de fallos
5. Administración de sistemas de archivos ZFS de Oracle Solaris
6. Uso de clones e instantáneas de Oracle Solaris ZFS
7. Uso de listas de control de acceso y atributos para proteger archivos Oracle Solaris ZFS
8. Administración delegada de ZFS Oracle Solaris
9. Temas avanzados de Oracle Solaris ZFS
10. Recuperación de agrupaciones y solución de problemas de Oracle Solaris ZFS
11. Prácticas de ZFS recomendadas por Oracle Solaris
Las funciones de Actualización automática relacionadas con componentes UFS siguen disponibles y funcionan igual que en las versiones anteriores.
Hay disponibles las siguientes funciones:
Migración de entorno de inicio UFS a entorno de inicio ZFS
Al migrar un sistema de archivos raíz UFS a uno ZFS, se debe designar una agrupación de almacenamiento ZFS que ya exista con la opción -p.
Si el sistema de archivos raíz UFS tiene componentes en distintos segmentos, se migran a la agrupación raíz ZFS.
En la versión Oracle Solaris 10 8/11, puede especificar un sistema de archivos /var por separado al migrar un sistema de archivos raíz UFS a un sistema de archivos raíz ZFS.
A continuación se expone el procedimiento básico para migrar un sistema de archivos raíz UFS a uno ZFS:
Instale los parches de Live Upgrade, si es necesario.
Instale la versión actual de Oracle Solaris 10 (de Solaris 10 10/08 a Oracle Solaris 10 8/11), o bien utilice un programa de actualización estándar para actualizar desde una versión anterior de Oracle Solaris 10 en cualquier sistema admitido que se base en SPARC o x86.
Si se ejecuta al menos la versión Solaris 10 10/08, cree una agrupación de almacenamiento ZFS para el sistema de archivos raíz ZFS.
Utilice Live Upgrade para migrar de un sistema de archivos raíz UFS a uno ZFS.
Active el entorno de inicio ZFS con el comando luactivate.
Revisión o actualización de un entorno de inicio ZFS
Puede utilizar el comando luupgrade para aplicar un parche o una actualización en un entorno de inicio ZFS ya existente. También puede utilizar luupgrade para actualizar un entorno de inicio ZFS alternativo con un archivo flash ZFS. Para obtener más información, consulte el Ejemplo 4-8.
Actualización automática puede utilizar la instantánea de ZFS y clonar funciones si se crea un entorno de inicio ZFS en la misma agrupación. Así, la creación de entornos de inicio es mucho más rápida que en las versiones anteriores.
Compatibilidad con migración de zonas: puede migrar un sistema con zonas pero las configuraciones admitidas están limitadas en la versión Solaris 10 10/08. Se admiten más configuraciones de zona a partir de la versión Solaris 10 5/09. Para obtener más información, consulte las secciones siguientes:
Si va a migrar un sistema sin zonas, consulte Uso de Live Upgrade para migrar o actualizar un sistema de archivos raíz ZFS (sin zonas).
Si desea obtener información detallada sobre la instalación de Oracle Solaris y las funciones de Live Upgrade, consulte la Guía de instalación de Oracle Solaris 10 1/13: actualización automática y planificada.
Para obtener información sobre los requisitos de Live Upgrade y ZFS, consulte Requisitos de instalación y Oracle Solaris Live Upgrade para compatibilidad con ZFS.
Antes de utilizar Live Upgrade para migrar un sistema de archivos raíz UFS a un sistema de archivos raíz ZFS, examine los siguientes problemas:
La opción de actualización estándar de la interfaz gráfica de usuario de la instalación de Oracle Solaris no está disponible para migrar de un sistema de archivos raíz UFS a uno ZFS. Para migrar de un sistema de archivos raíz UFS, debe utilizar Live Upgrade.
Debe crear la agrupación de almacenamiento ZFS que se utilizará para el inicio antes de ejecutar Live Upgrade. Asimismo, debido a las actuales limitaciones de inicio, la agrupación raíz ZFS se debe crear con segmentos en lugar de discos enteros. Por ejemplo:
# zpool create rpool mirror c1t0d0s0 c1t1d0s0
Antes de crear la agrupación, compruebe que los discos que se usarán en ella tengan una etiqueta SMI (VTOC) en lugar de una etiqueta EFI. Si se vuelve a etiquetar el disco con una etiqueta SMI, compruebe que el proceso de etiquetado no haya modificado el esquema de partición. En la mayoría de los casos, toda la capacidad del disco debe estar en los segmentos que se destinan a la agrupación raíz.
Actualización automática de Oracle Solaris no es apta para crear un entorno de inicio UFS a partir de un entorno de inicio ZFS. Si se migra el entorno de inicio UFS a uno ZFS y se mantiene el entorno de inicio UFS, se puede iniciar desde cualquiera de los dos entornos.
No cambie el nombre de los entornos de inicio ZFS con el comando zfs rename, ya que Live Upgrade no detecta el cambio de nombre. Los comandos que se puedan usar posteriormente, por ejemplo ludelete, no funcionarán. De hecho, no cambie el nombre de agrupaciones ni de sistemas de archivos ZFS si tiene entornos de inicio que quiere seguir utilizando.
Si se crea un entorno de inicio alternativo que es una clonación del entorno de inicio principal, no se pueden utilizar las opciones -f, -x, -y, -Y ni -z para incluir ni para excluir archivos del entorno de inicio principal. Sin embargo, la opción de inclusión y exclusión se puede utilizar en los casos siguientes:
UFS -> UFS UFS -> ZFS ZFS -> ZFS (different pool)
Si bien Live Upgrade se puede usar para actualizar de un sistema de archivos raíz UFS a uno ZFS, no se puede utilizar para la actualización de sistemas de archivos compartidos o que no sean root.
El comando lu no es válido para crear o migrar un sistema de archivos raíz ZFS.
Si desea tener el dispositivo de intercambio y volcado del sistema en una agrupación que no sea raíz, consulte Personalización de los volúmenes de intercambio y volcado ZFS.
Los siguientes ejemplos muestran cómo migrar un sistema de archivos raíz UFS a un sistema de archivos raíz ZFS y cómo actualizar un sistema de archivos raíz ZFS.
Si desea migrar o actualizar un sistema con zonas, consulte las siguientes secciones:
Ejemplo 4-4 Uso de Live Upgrade para migrar de un sistema de archivos raíz UFS a uno ZFS
En el ejemplo siguiente se muestra cómo migrar a un sistema de archivos raíz ZFS desde un sistema de archivos raíz UFS. El entorno de inicio actual, ufsBE, que contiene un sistema de archivos raíz UFS, se identifica mediante la opción -c. Si no incluye la opción -c opcional, el nombre del entorno de inicio actual se convierte de forma predeterminada en el nombre del dispositivo. El entorno de inicio nuevo, zfsBE, se identifica mediante la opción -n. Antes de que se ejecute la operación lucreate, debe haber una agrupación de almacenamiento ZFS.
Para que se pueda iniciar y actualizar, la agrupación de almacenamiento ZFS se debe crear con segmentos en lugar de discos enteros. Antes de crear la agrupación, compruebe que los discos que se usarán en ella tengan una etiqueta SMI (VTOC) en lugar de una etiqueta EFI. Si se vuelve a etiquetar el disco con una etiqueta SMI, compruebe que el proceso de etiquetado no haya modificado el esquema de partición. En la mayoría de los casos, toda la capacidad del disco debe estar en los segmentos que se destinan a la agrupación raíz.
# zpool create rpool mirror c1t2d0s0 c2t1d0s0 # lucreate -c ufsBE -n zfsBE -p rpool Analyzing system configuration. No name for current boot environment. Current boot environment is named <ufsBE>. Creating initial configuration for primary boot environment <ufsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <ufsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <ufsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t2d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <zfsBE>. Source boot environment is <ufsBE>. Creating boot environment <zfsBE>. Creating file systems on boot environment <zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>. Populating file systems on boot environment <zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </rpool/ROOT>. Creating compare database for file system </>. Updating compare databases on boot environment <zfsBE>. Making boot environment <zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-qD.mnt updating /.alt.tmp.b-qD.mnt/platform/sun4u/boot_archive Population of boot environment <zfsBE> successful. Creation of boot environment <zfsBE> successful.
Tras finalizar la operación de lucreate, utilice el comando lustatus para ver el estado del entorno de inicio. Por ejemplo:
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- ufsBE yes yes yes no - zfsBE yes no no yes -
A continuación, examine la lista de componentes de ZFS. Por ejemplo:
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.17G 59.8G 95.5K /rpool rpool/ROOT 4.66G 59.8G 21K /rpool/ROOT rpool/ROOT/zfsBE 4.66G 59.8G 4.66G / rpool/dump 2G 61.8G 16K - rpool/swap 517M 60.3G 16K -
Después, utilice el comando luactivate para activar el nuevo entorno de inicio ZFS. Por ejemplo:
# luactivate zfsBE A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>. ********************************************************************** The target boot environment has been activated. It will be used when you reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You MUST USE either the init or the shutdown command when you reboot. If you do not use either init or shutdown, the system will not boot using the target BE. ********************************************************************** . . . Modifying boot archive service Activation of boot environment <zfsBE> successful.
A continuación, reinicie el sistema en el entorno de inicio ZFS.
# init 6
Confirme que el entorno de inicio ZFS esté activo.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- ufsBE yes no no yes - zfsBE yes yes yes no -
Si vuelve al entorno de inicio UFS, tendrá que volver a importar todas las agrupaciones de almacenamiento ZFS creadas en el entorno de inicio ZFS porque no están disponibles automáticamente en el entorno de inicio UFS.
Si ya no se necesita el entorno de inicio UFS, se puede eliminar con el comando ludelete.
Ejemplo 4-5 Uso de Live Upgrade para crear un entorno de inicio ZFS desde un entorno de inicio UFS (con un /var aparte)
En la versión Oracle Solaris 10 8/11, puede utilizar la opción lucreate -D para indicar que desea que se cree un sistema de archivos /var aparte al migrar de un sistema de archivos raíz UFS a un sistema de archivos raíz ZFS. En el ejemplo siguiente, el entorno de inicio UFS existente se migra a un entorno de inicio ZFS con un sistema de archivos /var aparte.
# lucreate -n zfsBE -p rpool -D /var Determining types of file systems supported Validating file system requests Preparing logical storage devices Preparing physical storage devices Configuring physical storage devices Configuring logical storage devices Analyzing system configuration. No name for current boot environment. INFORMATION: The current boot environment is not named - assigning name <c0t0d0s0>. Current boot environment is named <c0t0d0s0>. Creating initial configuration for primary boot environment <c0t0d0s0>. INFORMATION: No BEs are configured on this system. The device </dev/dsk/c0t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <c0t0d0s0> PBE Boot Device </dev/dsk/c0t0d0s0>. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c0t1d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <zfsBE>. Source boot environment is <c0t0d0s0>. Creating file systems on boot environment <zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>. Creating <zfs> file system for </var> in zone <global> on <rpool/ROOT/zfsBE/var>. Populating file systems on boot environment <zfsBE>. Analyzing zones. Mounting ABE <zfsBE>. Generating file list. Copying data from PBE <c0t0d0s0> to ABE <zfsBE> 100% of filenames transferred Finalizing ABE. Fixing zonepaths in ABE. Unmounting ABE <zfsBE>. Fixing properties on ZFS datasets in ABE. Reverting state of zones in PBE <c0t0d0s0>. Making boot environment <zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-iaf.mnt updating /.alt.tmp.b-iaf.mnt/platform/sun4u/boot_archive Population of boot environment <zfsBE> successful. Creation of boot environment <zfsBE> successful. # luactivate zfsBE A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>. . . . Modifying boot archive service Activation of boot environment <zfsBE> successful. # init 6
Revise los sistemas de archivos ZFS que se acaban de crear. Por ejemplo:
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 6.29G 26.9G 32.5K /rpool rpool/ROOT 4.76G 26.9G 31K legacy rpool/ROOT/zfsBE 4.76G 26.9G 4.67G / rpool/ROOT/zfsBE/var 89.5M 26.9G 89.5M /var rpool/dump 512M 26.9G 512M - rpool/swap 1.03G 28.0G 16K -
Ejemplo 4-6 Uso de Live Upgrade para crear un entorno de inicio ZFS a partir de un entorno de inicio ZFS
El proceso de creación de un entorno de inicio ZFS desde un entorno de inicio ZFS es muy rápido porque esta operación utiliza las funciones de clonación e instantánea de ZFS. Si el entorno de inicio actual reside en la misma agrupación ZFS, se omite la opción -p.
Si tiene varios entornos de inicio ZFS, lleve a cabo el siguiente procedimiento para seleccionar el entorno de inicio desde el que desea iniciar:
SPARC: puede utilizar el comando boot -L para identificar los entornos de inicio disponibles. A continuación, seleccione el entorno de inicio desde el cual se realizará el inicio mediante el comando boot -Z.
x86: puede seleccionar un entorno de inicio desde el menú GRUB.
Para obtener más información, consulte el Ejemplo 4-12.
# lucreate -n zfs2BE Analyzing system configuration. No name for current boot environment. INFORMATION: The current boot environment is not named - assigning name <zfsBE>. Current boot environment is named <zfsBE>. Creating initial configuration for primary boot environment <zfsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. Creating configuration for boot environment <zfs2BE>. Source boot environment is <zfsBE>. Creating boot environment <zfs2BE>. Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>. Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>. Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>. Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>. Population of boot environment <zfs2BE> successful. Creation of boot environment <zfs2BE> successful.
Ejemplo 4-7 Actualización del entorno de inicio ZFS (luupgrade)
El entorno de inicio ZFS se puede actualizar con paquetes o parches adicionales.
A continuación se expone el proceso básico:
Crear un entorno de inicio alternativo con el comando lucreate.
Activar e iniciar desde el entorno de inicio alternativo.
Actualizar el entorno de inicio ZFS principal con el comando luupgrade para agregar paquetes o parches.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes no no yes - zfs2BE yes yes yes no - # luupgrade -p -n zfsBE -s /net/system/export/s10up/Solaris_10/Product SUNWchxge Validating the contents of the media </net/install/export/s10up/Solaris_10/Product>. Mounting the BE <zfsBE>. Adding packages to the BE <zfsBE>. Processing package instance <SUNWchxge> from </net/install/export/s10up/Solaris_10/Product> Chelsio N110 10GE NIC Driver(sparc) 11.10.0,REV=2006.02.15.20.41 Copyright (c) 2010, Oracle and/or its affiliates. All rights reserved. This appears to be an attempt to install the same architecture and version of a package which is already installed. This installation will attempt to overwrite this package. Using </a> as the package base directory. ## Processing package information. ## Processing system information. 4 package pathnames are already properly installed. ## Verifying package dependencies. ## Verifying disk space requirements. ## Checking for conflicts with packages already installed. ## Checking for setuid/setgid programs. This package contains scripts which will be executed with super-user permission during the process of installing this package. Do you want to continue with the installation of <SUNWchxge> [y,n,?] y Installing Chelsio N110 10GE NIC Driver as <SUNWchxge> ## Installing part 1 of 1. ## Executing postinstall script. Installation of <SUNWchxge> was successful. Unmounting the BE <zfsBE>. The package add to the BE <zfsBE> completed.
También puede crear un entorno de inicio nuevo para actualizar a una versión posterior de Oracle Solaris. Por ejemplo:
# luupgrade -u -n newBE -s /net/install/export/s10up/latest
La opción -s especifica la ubicación de un medio de instalación de Solaris.
Ejemplo 4-8 Creación de un entorno de inicio ZFS con un archivo flash ZFS (luupgrade )
En la versión Oracle Solaris 10 8/11, puede utilizar el comando luupgrade para crear un entorno de inicio ZFS a partir de un archivo flash ZFS existente. A continuación se expone el proceso básico:
Cree un archivo flash de un sistema maestro con un entorno de inicio ZFS.
Por ejemplo:
master-system# flarcreate -n s10zfsBE /tank/data/s10zfsflar Full Flash Checking integrity... Integrity OK. Running precreation scripts... Precreation scripts done. Determining the size of the archive... The archive will be approximately 4.67GB. Creating the archive... Archive creation complete. Running postcreation scripts... Postcreation scripts done. Running pre-exit scripts... Pre-exit scripts done.
Haga que el archivo flash ZFS que fue creado en el sistema maestro esté disponible para el sistema clon.
Las ubicaciones posibles para el archivo flash son un sistema de archivos local, HTTP, FTP, NFS, etc.
Cree un entorno de inicio ZFS alternativo vacío en el sistema clon.
Utilice la opción -s - para especificar que se trata de un entorno de inicio vacío que se rellenará con el contenido del archivo flash ZFS.
Por ejemplo:
clone-system# lucreate -n zfsflashBE -s - -p rpool Determining types of file systems supported Validating file system requests Preparing logical storage devices Preparing physical storage devices Configuring physical storage devices Configuring logical storage devices Analyzing system configuration. No name for current boot environment. INFORMATION: The current boot environment is not named - assigning name <s10zfsBE>. Current boot environment is named <s10zfsBE>. Creating initial configuration for primary boot environment <s10zfsBE>. INFORMATION: No BEs are configured on this system. The device </dev/dsk/c0t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <s10zfsBE> PBE Boot Device </dev/dsk/c0t0d0s0>. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c0t1d0s0> is not a root device for any boot environment; cannot get BE ID. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsflashBE>. Creation of boot environment <zfsflashBE> successful.
Instale el archivo flash ZFS en el entorno de inicio alternativo.
Por ejemplo:
clone-system# luupgrade -f -s /net/server/export/s10/latest -n zfsflashBE -a /tank/data/zfs10up2flar miniroot filesystem is <lofs> Mounting miniroot at </net/server/s10up/latest/Solaris_10/Tools/Boot> Validating the contents of the media </net/server/export/s10up/latest>. The media is a standard Solaris media. Validating the contents of the miniroot </net/server/export/s10up/latest/Solaris_10/Tools/Boot>. Locating the flash install program. Checking for existence of previously scheduled Live Upgrade requests. Constructing flash profile to use. Creating flash profile for BE <zfsflashBE>. Performing the operating system flash install of the BE <zfsflashBE>. CAUTION: Interrupting this process may leave the boot environment unstable or unbootable. Extracting Flash Archive: 100% completed (of 5020.86 megabytes) The operating system flash install completed. updating /.alt.tmp.b-rgb.mnt/platform/sun4u/boot_archive The Live Flash Install of the boot environment <zfsflashBE> is complete.
Active el entorno de inicio alternativo.
clone-system# luactivate zfsflashBE A Live Upgrade Sync operation will be performed on startup of boot environment <zfsflashBE>. . . . Modifying boot archive service Activation of boot environment <zfsflashBE> successful.
Reinicie el sistema.
clone-system# init 6
Live Upgrade se puede utilizar para migrar un sistema con zonas, pero las configuraciones admitidas son limitadas en la versión Solaris 10 10/08. Si está instalando o actualizando al menos a la versión Solaris 10 5/09, se admiten más configuraciones de zona. Para obtener más información, consulte Uso de Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas (al menos Solaris 10 5/09).
En esta sección se explica cómo instalar y configurar un sistema con zonas para poder actualizarlo y aplicarle parches mediante Live Upgrade. Si va a migrar a un sistema de archivos root ZFS sin zonas, consulte Uso de Live Upgrade para migrar o actualizar un sistema de archivos raíz ZFS (sin zonas).
Si va a migrar un sistema con zonas, o bien si tiene previsto configurar un sistema con zonas en la versión Solaris 10 10/08, consulte los procedimientos siguientes:
Cómo configurar un sistema de archivos raíz ZFS con raíces de zona en ZFS (Solaris 10 10/08)
Resolución de problemas de punto de montaje ZFS que impiden un inicio correcto (Solaris 10 10/08)
Siga los procedimientos recomendados para configurar zonas en un sistema con un sistema de archivos root ZFS para asegurarse de poder utilizar Live Upgrade en él.
Este procedimiento explica cómo migrar un sistema de archivos raíz UFS con zonas instaladas a un sistema de archivos raíz ZFS y una configuración raíz de zona ZFS que se pueda actualizar o a la que se puedan aplicar parches.
En los pasos siguientes, el nombre de la agrupación de ejemplo es rpool y los nombres de los entornos de inicio activos de ejemplo comienzan con s10BE*.
Para obtener más información sobre cómo actualizar un sistema que ejecuta la versión Solaris 10, consulte Guía de instalación de Oracle Solaris 10 1/13: actualización automática y planificada.
# zpool create rpool mirror c0t1d0 c1t1d0
Para obtener información sobre los requisitos de las agrupaciones raíz, consulte Requisitos de instalación y Oracle Solaris Live Upgrade para compatibilidad con ZFS.
# lucreate -n s10BE2 -p rpool
Este comando establece conjuntos de datos en la agrupación raíz del nuevo entorno de inicio y copia el entorno de inicio actual (zonas incluidas) en esos conjuntos de datos.
# luactivate s10BE2
El sistema ya ejecuta un sistema de archivos raíz ZFS; sin embargo, las raíces de zona de UFS siguen estando en el sistema de archivos raíz UFS. Los pasos siguientes son necesarios para migrar por completo las zonas UFS a una configuración ZFS compatible.
# init 6
# lucreate s10BE3
# luactivate s10BE3
# init 6
En este paso se verifica que se inicie el entorno de inicio ZFS y las zonas.
Debido a un error en Live Upgrade, el inicio del entorno de inicio no activo podría fallar porque un conjunto de datos ZFS o el conjunto de datos ZFS de una zona del entorno de inicio tiene un punto de montaje no válido.
Busque puntos de montaje temporales incorrectos. Por ejemplo:
# zfs list -r -o name,mountpoint rpool/ROOT/s10up NAME MOUNTPOINT rpool/ROOT/s10up /.alt.tmp.b-VP.mnt/ rpool/ROOT/s10up/zones /.alt.tmp.b-VP.mnt//zones rpool/ROOT/s10up/zones/zonerootA /.alt.tmp.b-VP.mnt/zones/zonerootA
El punto de montaje del entorno de inicio ZFS root (rpool/ROOT/s10up) debe ser /.
Por ejemplo:
# zfs inherit -r mountpoint rpool/ROOT/s10up # zfs set mountpoint=/ rpool/ROOT/s10up
Cuando se presente la opción para iniciar un entorno de inicio determinado, ya sea en el indicador de OpenBoot PROM o en el menú de GRUB, seleccione el entorno de inicio cuyos puntos de montaje se acaban de corregir.
Este procedimiento explica cómo configurar un sistema de archivos raíz ZFS y una configuración raíz de zona ZFS que se pueda actualizar o a la que se pueda aplicar parches. En esta configuración, las raíces de zona ZFS se crean como conjuntos de datos ZFS.
En los pasos siguientes, el nombre de la agrupación de ejemplo es rpool y el nombre del entorno de inicio activo de ejemplo es s10BE. El nombre del conjunto de datos de las zonas puede ser cualquier nombre de conjunto de datos válido. En el ejemplo siguiente, el nombre del conjunto de datos de las zonas es zones.
Según el método de instalación que seleccione, consulte Instalación de un sistema de archivos raíz ZFS (instalación inicial de Oracle Solaris) o Instalación de un sistema de archivos raíz ZFS (instalación JumpStart).
Por ejemplo:
# zfs create -o canmount=noauto rpool/ROOT/s10BE/zones
El establecimiento del valor noauto para la propiedad canmount impide que el conjunto de datos se monte de cualquier otra manera que no sea mediante la acción explícita de Live Upgrade y el código de inicio del sistema.
# zfs mount rpool/ROOT/s10BE/zones
El conjunto de datos se monta en /zones.
# zfs create -o canmount=noauto rpool/ROOT/s10BE/zones/zonerootA # zfs mount rpool/ROOT/s10BE/zones/zonerootA
# chmod 700 /zones/zonerootA
# zonecfg -z zoneA zoneA: No such zone configured Use 'create' to begin configuring a new zone. zonecfg:zoneA> create zonecfg:zoneA> set zonepath=/zones/zonerootA
Puede activar las zonas para que se inicien automáticamente cuando se inicie el sistema mediante la sintaxis siguiente:
zonecfg:zoneA> set autoboot=true
# zoneadm -z zoneA install
# zoneadm -z zoneA boot
Utilice este procedimiento cuando deba actualizar o aplicar parches a un sistema de archivos raíz ZFS con raíces de zona en ZFS. Estas actualizaciones pueden consistir en una actualización del sistema o en la aplicación de parches.
En los pasos siguientes, newBE es el nombre de ejemplo del entorno de inicio que se actualiza o al que se aplican parches.
# lucreate -n newBE
Se clona el entorno de inicio que ya existe, incluidas todas las zonas. Se crea un conjunto de datos para cada conjunto de datos del entorno de inicio original. Los nuevos conjuntos de datos se crean en la misma agrupación que la agrupación raíz actual.
Actualice el sistema.
# luupgrade -u -n newBE -s /net/install/export/s10up/latest
La opción -s especifica la ubicación del medio de instalación de Oracle Solaris.
Aplique parches al nuevo entorno de inicio.
# luupgrade -t -n newBE -t -s /patchdir 139147-02 157347-14
# luactivate newBE
# init 6
Debido a un error en Live Upgrade, el inicio del entorno de inicio no activo podría fallar porque un conjunto de datos ZFS o el conjunto de datos ZFS de una zona del entorno de inicio tiene un punto de montaje no válido.
Busque puntos de montaje temporales incorrectos. Por ejemplo:
# zfs list -r -o name,mountpoint rpool/ROOT/newBE NAME MOUNTPOINT rpool/ROOT/newBE /.alt.tmp.b-VP.mnt/ rpool/ROOT/newBE/zones /.alt.tmp.b-VP.mnt/zones rpool/ROOT/newBE/zones/zonerootA /.alt.tmp.b-VP.mnt/zones/zonerootA
El punto de montaje del entorno de inicio ZFS raíz (rpool/ROOT/newBE) debe ser /.
Por ejemplo:
# zfs inherit -r mountpoint rpool/ROOT/newBE # zfs set mountpoint=/ rpool/ROOT/newBE
Cuando se presente la opción para iniciar un entorno de inicio determinado, ya sea en el indicador de OpenBoot PROM o en el menú de GRUB, seleccione el entorno de inicio cuyos puntos de montaje se acaban de corregir.
Puede usar la función Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas a partir de la versión Solaris 10 10/08. A partir de la versión Solaris 10 5/09, Live Upgrade admite configuraciones de zonas (root y completas) dispersas adicionales.
En esta sección se describe cómo configurar un sistema con zonas para que se pueda aplicar un parche o una actualización con Live Upgrade a partir de la versión Solaris 10 5/09. Si va a migrar a un sistema de archivos root ZFS sin zonas, consulte Uso de Live Upgrade para migrar o actualizar un sistema de archivos raíz ZFS (sin zonas).
Tenga en cuenta los puntos siguientes cuando se utilice Actualización automática de Oracle Solaris con ZFS y zonas a partir de la versión Solaris 10 5/09:
Para utilizar Live Upgrade con configuraciones de zona que se admiten a partir de la versión Solaris 10 5/09, en primer lugar, debe actualizar el sistema, al menos, a la versión Solaris 10 5/09 mediante el programa de actualización estándar.
A continuación, con Live Upgrade, puede migrar el sistema de archivos root UFS con roots de zona a un sistema de archivos root ZFS, o bien puede aplicar un parche o una actualización al sistema de archivos root ZFS y las roots de zona.
No se pueden migrar configuraciones de zona no admitidas de una versión anterior de Solaris 10 directamente a la versión Solaris 10 5/09.
Si está migrando o configurando un sistema con zonas a partir de la versión Solaris 10 5/09, revise la siguiente información:
Revise las configuraciones de zona admitidas antes de usar la función Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas.
Migración de un sistema de archivos root UFS a un sistema de archivos root ZFS – Las configuraciones siguientes de roots de zonas son compatibles:
En un directorio del sistema de archivos raíz UFS
En el subdirectorio de un punto de montaje en el sistema de archivos root UFS
Un sistema de archivos root UFS con una root de zona en un directorio de sistema de archivos root UFS o en un subdirectorio de un punto de montaje de un sistema de archivos root UFS y una agrupación no root ZFS con una root de zona
Un sistema de archivos root UFS que tiene una root de zona como punto de montaje no se admite.
Migración o actualización de un sistema de archivos raíz ZFS – Se admiten las siguientes configuraciones de raíces de zona:
En un sistema de archivos en una root ZFS o una agrupación no root. Por ejemplo, /zonepool/zones es aceptable. En algunos casos, si no se proporciona un sistema de archivos para la root de zona antes de la utilización de Live Upgrade, éste creará un sistema de archivos para la root de zona (zoneds).
En un sistema de archivos descendente o subdirectorio de un sistema de archivos ZFS, siempre que las diferentes rutas de zonas no estén anidadas. Por ejemplo, /zonepool/zones/zone1 y /zonepool/zones/zone1_dir son aceptables.
En el ejemplo siguiente, zonepool/zones es un sistema de archivos que contiene las roots de zona y rpool contiene el entorno de inicio ZFS:
zonepool zonepool/zones zonepool/zones/myzone rpool rpool/ROOT rpool/ROOT/myBE
Live Upgrade toma instantáneas de las zonas y las clona en zonepool y el entorno de inicio rpool si utiliza esta sintaxis:
# lucreate -n newBE
Se crea el entorno de inicio newBE en rpool/ROOT/newBE. Si está activado, newBE proporciona acceso a los componentes de zonepool.
En el ejemplo anterior, si /zonepool/zones fuera un subdirectorio, y no un sistema de archivos independiente, Live Upgrade lo migraría como un componente de la agrupación raíz, rpool.
La siguiente configuración de zona y ZFS no se admite:
Live Upgrade no se puede utilizar para crear un entorno de inicio alternativo cuando el entorno de inicio de origen tiene una zona no global con una ruta de zona establecida en el punto de montaje de un sistema de archivos de agrupación de nivel superior. Por ejemplo, si la agrupación zonepool tiene un sistema de archivos montado como /zonepool, no puede tener una zona no global con una ruta de zona configurada en /zonepool.
No agregue una entradas del sistema de archivos para una zona no global en el archivo /etc/vfstab de la zona global. En su lugar, utilice la función add fs del comando zonecfg para agregar un sistema de archivos a una zona no global.
Información de actualización o migración de zonas con zonas para UFS y ZFS: revise las siguientes consideraciones que pueden afectar una migración o una actualización de un entorno ZFS y UFS:
Si ha configurado las zonas como se describe en Uso de Live Upgrade para migrar o actualizar un sistema con zonas (Solaris 10 10/08) en la versión Solaris 10 10/08 y ha actualizado, al menos, a Solaris 10 5/09, puede migrar a un sistema de archivos root ZFS o utilizar Live Upgrade para actualizar, al menos, a la versión Solaris 10 5/09.
No cree raíces de zona en directorios anidados, por ejemplo, zones/zone1 y zones/zone1/zone2. De lo contrario, el montaje puede fallar en el momento del inicio.
Utilice este procedimiento después de haber realizado una instalación inicial de, al menos, la versión Solaris 10 5/09 para crear un sistema de archivos raíz ZFS. Utilice este procedimiento después de utilizar el comando luupgrade para actualizar un sistema de archivos root ZFS, al menos, a la versión Solaris 10 5/09. Se puede aplicar una actualización o un parche a un entorno de inicio ZFS que se cree mediante este procedimiento.
En los pasos que aparecen a continuación, el sistema Oracle Solaris 10 9/10 de ejemplo tiene un sistema de archivos raíz ZFS y un conjunto de datos raíz de zona en /rpool/zones. Se crea un entorno de inicio ZFS denominado zfs2BE al que se puede aplicar una actualización o un parche.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.26G 59.7G 98K /rpool rpool/ROOT 4.64G 59.7G 21K legacy rpool/ROOT/zfsBE 4.64G 59.7G 4.64G / rpool/dump 1.00G 59.7G 1.00G - rpool/export 44K 59.7G 23K /export rpool/export/home 21K 59.7G 21K /export/home rpool/swap 1G 60.7G 16K - rpool/zones 633M 59.7G 633M /rpool/zones
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 zfszone running /rpool/zones native shared
# lucreate -n zfs2BE Analyzing system configuration. No name for current boot environment. INFORMATION: The current boot environment is not named - assigning name <zfsBE>. Current boot environment is named <zfsBE>. Creating initial configuration for primary boot environment <zfsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. Creating configuration for boot environment <zfs2BE>. Source boot environment is <zfsBE>. Creating boot environment <zfs2BE>. Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>. Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>. Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>. Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>. Population of boot environment <zfs2BE> successful. Creation of boot environment <zfs2BE> successful.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes yes yes no - zfs2BE yes no no yes - # luactivate zfs2BE A Live Upgrade Sync operation will be performed on startup of boot environment <zfs2BE>. . . .
# init 6
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.38G 59.6G 98K /rpool rpool/ROOT 4.72G 59.6G 21K legacy rpool/ROOT/zfs2BE 4.72G 59.6G 4.64G / rpool/ROOT/zfs2BE@zfs2BE 74.0M - 4.64G - rpool/ROOT/zfsBE 5.45M 59.6G 4.64G /.alt.zfsBE rpool/dump 1.00G 59.6G 1.00G - rpool/export 44K 59.6G 23K /export rpool/export/home 21K 59.6G 21K /export/home rpool/swap 1G 60.6G 16K - rpool/zones 17.2M 59.6G 633M /rpool/zones rpool/zones-zfsBE 653M 59.6G 633M /rpool/zones-zfsBE rpool/zones-zfsBE@zfs2BE 19.9M - 633M - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - zfszone installed /rpool/zones native shared
Utilice este procedimiento cuando deba aplicar parches o actualizaciones a un sistema de archivos raíz ZFS con raíces de zona en la versión Solaris 10 5/09. Estas actualizaciones pueden consistir en una actualización del sistema o en la aplicación de parches.
En los pasos siguientes, zfs2BE es el nombre de ejemplo del entorno de inicio al que se le aplica una actualización o un parche.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.38G 59.6G 100K /rpool rpool/ROOT 4.72G 59.6G 21K legacy rpool/ROOT/zfs2BE 4.72G 59.6G 4.64G / rpool/ROOT/zfs2BE@zfs2BE 75.0M - 4.64G - rpool/ROOT/zfsBE 5.46M 59.6G 4.64G / rpool/dump 1.00G 59.6G 1.00G - rpool/export 44K 59.6G 23K /export rpool/export/home 21K 59.6G 21K /export/home rpool/swap 1G 60.6G 16K - rpool/zones 22.9M 59.6G 637M /rpool/zones rpool/zones-zfsBE 653M 59.6G 633M /rpool/zones-zfsBE rpool/zones-zfsBE@zfs2BE 20.0M - 633M -
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 5 zfszone running /rpool/zones native shared
# lucreate -n zfs2BE Analyzing system configuration. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. Creating configuration for boot environment <zfs2BE>. Source boot environment is <zfsBE>. Creating boot environment <zfs2BE>. Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>. Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>. Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>. Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>. Creating snapshot for <rpool/zones> on <rpool/zones@zfs10092BE>. Creating clone for <rpool/zones@zfs2BE> on <rpool/zones-zfs2BE>. Population of boot environment <zfs2BE> successful. Creation of boot environment <zfs2BE> successful.
Actualice el sistema.
# luupgrade -u -n zfs2BE -s /net/install/export/s10up/latest
La opción -s especifica la ubicación del medio de instalación de Oracle Solaris.
Este proceso puede durar mucho tiempo.
Para obtener un ejemplo completo del proceso luupgrade, consulte el Ejemplo 4-9.
Aplique parches al nuevo entorno de inicio.
# luupgrade -t -n zfs2BE -t -s /patchdir patch-id-02 patch-id-04
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes yes yes no - zfs2BE yes no no yes - # luactivate zfs2BE A Live Upgrade Sync operation will be performed on startup of boot environment <zfs2BE>. . . .
# init 6
Ejemplo 4-9 Actualización de un sistema de archivos root ZFS con una root de zona a un sistema de archivos root ZFS de Oracle Solaris 10 9/10
En este ejemplo, un entorno de inicio ZFS (zfsBE), creado en un sistema Solaris 10 10/09 con un sistema de archivos root ZFS y una root de zona en una agrupación no root, se actualiza a la versión Oracle Solaris 10 9/10. Este proceso puede durar mucho tiempo. A continuación, el entorno de inicio actualizado (zfs2BE) se activa. Asegúrese de que las zonas se hayan instalado e iniciado antes de intentar la actualización.
En este ejemplo, la agrupación zonepool, el conjunto de datos /zonepool/zones, así como la zona zfszone se crean de este modo:
# zpool create zonepool mirror c2t1d0 c2t5d0 # zfs create zonepool/zones # chmod 700 zonepool/zones # zonecfg -z zfszone zfszone: No such zone configured Use 'create' to begin configuring a new zone. zonecfg:zfszone> create zonecfg:zfszone> set zonepath=/zonepool/zones zonecfg:zfszone> verify zonecfg:zfszone> exit # zoneadm -z zfszone install cannot create ZFS dataset zonepool/zones: dataset already exists Preparing to install zone <zfszone>. Creating list of files to copy from the global zone. Copying <8960> files to the zone. . . .
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 zfszone running /zonepool/zones native shared # lucreate -n zfsBE . . . # luupgrade -u -n zfsBE -s /net/install/export/s10up/latest 40410 blocks miniroot filesystem is <lofs> Mounting miniroot at </net/system/export/s10up/latest/Solaris_10/Tools/Boot> Validating the contents of the media </net/system/export/s10up/latest>. The media is a standard Solaris media. The media contains an operating system upgrade image. The media contains <Solaris> version <10>. Constructing upgrade profile to use. Locating the operating system upgrade program. Checking for existence of previously scheduled Live Upgrade requests. Creating upgrade profile for BE <zfsBE>. Determining packages to install or upgrade for BE <zfsBE>. Performing the operating system upgrade of the BE <zfsBE>. CAUTION: Interrupting this process may leave the boot environment unstable or unbootable. Upgrading Solaris: 100% completed Installation of the packages from this media is complete. Updating package information on boot environment <zfsBE>. Package information successfully updated on boot environment <zfsBE>. Adding operating system patches to the BE <zfsBE>. The operating system patch installation is complete. INFORMATION: The file </var/sadm/system/logs/upgrade_log> on boot environment <zfsBE> contains a log of the upgrade operation. INFORMATION: The file </var/sadm/system/data/upgrade_cleanup> on boot environment <zfsBE> contains a log of cleanup operations required. INFORMATION: Review the files listed above. Remember that all of the files are located on boot environment <zfsBE>. Before you activate boot environment <zfsBE>, determine if any additional system maintenance is required or if additional media of the software distribution must be installed. The Solaris upgrade of the boot environment <zfsBE> is complete. Installing failsafe Failsafe install is complete. # luactivate zfs2BE # init 6 # lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes no no yes - zfs2BE yes yes yes no - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - zfszone installed /zonepool/zones native shared
Utilice este procedimiento para migrar un sistema con un sistema de archivos raíz UFS y una raíz de zona al menos a la versión Solaris 10 5/09. A continuación, utilice Modernización automática para crear un entorno de inicio ZFS.
En los pasos que aparecen a continuación, el nombre del entorno de inicio UFS de ejemplo es c1t1d0s0, la root de zona UFS es zonepool/zfszone y el entorno de inicio root ZFS es zfsBE.
Para obtener más información sobre cómo actualizar un sistema que ejecuta la versión Solaris 10, consulte la Guía de instalación de Oracle Solaris 10 1/13: actualización automática y planificada.
Para obtener información sobre los requisitos de las agrupaciones raíz, consulte Requisitos de instalación y Oracle Solaris Live Upgrade para compatibilidad con ZFS.
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 zfszone running /zonepool/zones native shared
# lucreate -c c1t1d0s0 -n zfsBE -p rpool
Este comando establece conjuntos de datos en la agrupación raíz del nuevo entorno de inicio y copia el entorno de inicio actual (zonas incluidas) en esos conjuntos de datos.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- c1t1d0s0 yes no no yes - zfsBE yes yes yes no - # luactivate zfsBE A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>. . . .
# init 6
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 6.17G 60.8G 98K /rpool rpool/ROOT 4.67G 60.8G 21K /rpool/ROOT rpool/ROOT/zfsBE 4.67G 60.8G 4.67G / rpool/dump 1.00G 60.8G 1.00G - rpool/swap 517M 61.3G 16K - zonepool 634M 7.62G 24K /zonepool zonepool/zones 270K 7.62G 633M /zonepool/zones zonepool/zones-c1t1d0s0 634M 7.62G 633M /zonepool/zones-c1t1d0s0 zonepool/zones-c1t1d0s0@zfsBE 262K - 633M - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - zfszone installed /zonepool/zones native shared
Ejemplo 4-10 Migración de un sistema de archivos raíz UFS con raíz de zona a un sistema de archivos raíz ZFS
En este ejemplo, un sistema Oracle Solaris 10 9/10 con un sistema de archivos root UFS y una root de zona (/uzone/ufszone), así como una agrupación no root ZFS (pool) y una root de zona (/pool/zfszone), se migra a un sistema de archivos root ZFS. Asegúrese de que la agrupación raíz ZFS se haya creado y de que las zonas se hayan instalado e iniciado antes de intentar la migración.
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 ufszone running /uzone/ufszone native shared 3 zfszone running /pool/zones/zfszone native shared
# lucreate -c ufsBE -n zfsBE -p rpool Analyzing system configuration. No name for current boot environment. Current boot environment is named <zfsBE>. Creating initial configuration for primary boot environment <zfsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <ufsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <ufsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <zfsBE>. Source boot environment is <ufsBE>. Creating boot environment <zfsBE>. Creating file systems on boot environment <zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>. Populating file systems on boot environment <zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Copying root of zone <ufszone> to </.alt.tmp.b-EYd.mnt/uzone/ufszone>. Creating snapshot for <pool/zones/zfszone> on <pool/zones/zfszone@zfsBE>. Creating clone for <pool/zones/zfszone@zfsBE> on <pool/zones/zfszone-zfsBE>. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </rpool/ROOT>. Creating compare database for file system </>. Updating compare databases on boot environment <zfsBE>. Making boot environment <zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-DLd.mnt updating /.alt.tmp.b-DLd.mnt/platform/sun4u/boot_archive Population of boot environment <zfsBE> successful. Creation of boot environment <zfsBE> successful. # lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- ufsBE yes yes yes no - zfsBE yes no no yes - # luactivate zfsBE . . . # init 6 . . . # zfs list NAME USED AVAIL REFER MOUNTPOINT pool 628M 66.3G 19K /pool pool/zones 628M 66.3G 20K /pool/zones pool/zones/zfszone 75.5K 66.3G 627M /pool/zones/zfszone pool/zones/zfszone-ufsBE 628M 66.3G 627M /pool/zones/zfszone-ufsBE pool/zones/zfszone-ufsBE@zfsBE 98K - 627M - rpool 7.76G 59.2G 95K /rpool rpool/ROOT 5.25G 59.2G 18K /rpool/ROOT rpool/ROOT/zfsBE 5.25G 59.2G 5.25G / rpool/dump 2.00G 59.2G 2.00G - rpool/swap 517M 59.7G 16K - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - ufszone installed /uzone/ufszone native shared - zfszone installed /pool/zones/zfszone native shared