En este capítulo se describe cómo instalar e iniciar un sistema de archivos ZFS Oracle Solaris. También se describe la migración de un sistema de archivos raíz UFS a un sistema de archivos ZFS mediante Actualización automática de Oracle Solaris.
Este capítulo se divide en las secciones siguientes:
Instalación e inicio de un sistema de archivos raíz ZFS Oracle Solaris (información general)
Instalación de un sistema de archivos raíz ZFS (instalación inicial)
Instalación de un sistema de archivos raíz ZFS (instalación JumpStart de Oracle Solaris)
Migración de un sistema de archivos raíz UFS a uno ZFS (Actualización automática de Oracle Solaris)
Compatibilidad de ZFS con dispositivos de intercambio y volcado
Recuperación de la agrupación raíz ZFS o las instantáneas de la agrupación raíz
Si desea obtener una lista de problemas conocidos de esta versión, consulte Notas de la versión de Oracle Solaris 10 9/10.
Para obtener información actualizada sobre resolución de problemas, consulte el sitio siguiente:
http://www.solarisinternals.com/wiki/index.php/ZFS_Troubleshooting_Guide
A partir de Solaris 10 10/08, se puede llevar a cabo una instalación e iniciar desde un sistema de archivos raíz ZFS de las maneras siguientes:
Mediante una instalación inicial durante la que se selecciona ZFS como sistema de archivos raíz.
Mediante Actualización automática de Oracle Solaris para migrar de un sistema de archivos raíz UFS a uno ZFS. Además, Actualización automática de Oracle Solaris es apta para efectuar las tareas siguientes:
Crear un entorno de inicio a partir de una agrupación raíz ZFS ya existente.
Crear un entorno de inicio en una agrupación raíz ZFS nueva.
Puede utilizar un perfil de Oracle Solaris JumpStart para instalar automáticamente un sistema con un sistema de archivos raíz ZFS.
A partir de la versión Solaris 10 10/09, puede utilizar un perfil JumpStart para instalar automáticamente un sistema con un archivo de almacenamiento flash ZFS.
Después de instalar un sistema basado en SPARC o x86 con un sistema de archivos raíz ZFS o de migrar a un sistema de archivos raíz ZFS, el sistema se inicia automáticamente desde el sistema de archivos raíz ZFS. Para obtener más información sobre cambios de inicio, consulte Inicio desde un sistema de archivos raíz ZFS.
En esta versión de Solaris se proporcionan las siguientes funciones de instalación de ZFS:
El instalador de texto interactivo de Solaris permite instalar un sistema de archivos raíz UFS o ZFS. En esta versión de Solaris, UFS sigue siendo el sistema de archivos predeterminado. Hay varias formas de acceder a la opción del instalador de texto interactivo:
SPARC: utilice la sintaxis siguiente desde el DVD de instalación de Solaris:
ok boot cdrom - text |
SPARC: utilice la sintaxis siguiente cuando inicie desde la red:
ok boot net - text |
x86: seleccione la opción de instalación en modo texto.
Un perfil JumpStart personalizado proporciona las siguientes funciones:
Puede configurar un perfil para crear una agrupación de almacenamiento ZFS y designar un sistema de archivos ZFS de inicio.
Se puede configurar un perfil con el fin de identificar un archivo de almacenamiento flash de una agrupación raíz ZFS.
Con Automatización automática de Oracle Solaris se puede migrar de un sistema de archivos raíz UFS a uno ZFS. Los comandos lucreate y luactivate se han mejorado para admitir sistemas de archivos y agrupaciones ZFS.
Se puede configurar una agrupación raíz ZFS reflejada seleccionando dos discos durante la instalación. También se pueden vincular más discos después de la instalación para crear una agrupación raíz ZFS reflejada.
Los dispositivos de volcado e intercambio se crean de manera automática en volúmenes ZFS de la agrupación raíz ZFS:
En esta versión no se proporcionan las siguientes funciones de instalación:
No está disponible la función de instalación de GUI para instalar un sistema de archivos raíz ZFS.
La función de instalación flash de Oracle Solaris para instalar un sistema de archivos raíz ZFS no está disponible mediante la selección de la opción de instalación flash de la opción de instalación inicial. Sin embargo, puede crear un perfil JumpStart para identificar un archivo de almacenamiento flash de una agrupación raíz ZFS. Para obtener más información, consulte Instalación de un sistema de archivos raíz ZFS (instalación de archivo de almacenamiento flash de Oracle Solaris).
El programa de actualización estándar no es válido para actualizar el sistema de archivos raíz UFS a un sistema de archivos raíz ZFS.
Antes de intentar instalar un sistema con un sistema de archivos raíz ZFS o de migrar un sistema de archivos raíz UFS a uno ZFS, deben cumplirse los requisitos siguientes:
Puede instalar e iniciar un sistema de archivos raíz ZFS, o bien migrar a un sistema de archivos raíz ZFS de las maneras siguientes:
Instalación de un sistema de archivos raíz ZFS: disponible a partir de la versión Solaris 10 10/08.
Migración de un sistema de archivos raíz UFS a un sistema de archivos raíz ZFS mediante Automatización automática de Oracle Solaris: debe tener instalado al menos Solaris 10 10/08, o bien debe haber actualizado Solaris al menos a la versión 10 10/08.
Las siguientes secciones describen los requisitos de configuración y el espacio de la agrupación raíz ZFS.
La cantidad mínima necesaria de espacio de agrupación para un sistema de archivos raíz ZFS es mayor que la de un sistema de archivos raíz UFS porque los dispositivos de intercambio y volcado deben ser independientes en un entorno raíz ZFS. De forma predeterminada, en un sistema de archivos raíz UFS los dispositivos de intercambio y volcado son el mismo dispositivo.
Al instalar o actualizar un sistema con un sistema de archivos raíz ZFS, el tamaño del área de intercambio y del dispositivo de volcado dependen de la cantidad de memoria física. La cantidad mínima de espacio de agrupación disponible para un sistema de archivos raíz ZFS depende de la cantidad de memoria física, el espacio en el disco disponible y la cantidad de entornos de inicio que se vayan a crear.
Revise los siguientes requisitos de espacio en el disco para agrupaciones de almacenamiento ZFS:
Para instalar un sistema de archivos raíz ZFS se necesita como mínimo 768 MB.
Se recomienda 1 GB de memoria para mejorar el rendimiento global de ZFS.
Se recomienda un mínimo de 16 GB de espacio en el disco. El espacio en el disco se consume del modo siguiente:
Área de intercambio y dispositivo de volcado: los tamaños predeterminados de los volúmenes de intercambio y volcado que se crean mediante el programa de instalación de Solaris son los siguientes:
Instalación inicial de Solaris, en el nuevo entorno de inicio ZFS, el tamaño del volumen de intercambio predeterminado se calcula como la mitad del tamaño de la memoria física, normalmente en el intervalo de 512 MB a 2 GB. Durante una instalación inicial se puede ajustar el tamaño de intercambio.
El tamaño predeterminado del volumen de volcado se calcula mediante el núcleo, en función de la información de dumpadm y el tamaño de la memoria física. Durante una instalación inicial se puede ajustar el tamaño de volcado.
Actualización automática de Oracle Solaris: si un sistema de archivos raíz UFS se migra a un sistema de archivos raíz ZFS, el tamaño predeterminado del volumen de intercambio del entorno de inicio ZFS se calcula como el tamaño del dispositivo de intercambio del entorno de inicio UFS. El cálculo del tamaño predeterminado del volumen de intercambio suma los tamaños de todos los dispositivos de intercambio del entorno de inicio UFS y crea un volumen ZFS de ese tamaño en el entorno de inicio ZFS. Si en el entorno de inicio UFS no se definen dispositivos de intercambio, el tamaño predeterminado del volumen de intercambio se establece en 512 MB.
En el entorno de inicio ZFS, el tamaño del volumen de volcado predeterminado se establece en la mitad del tamaño de la memoria física, entre 512 MB y 2 GB.
Puede ajustar los tamaños de los volúmenes de intercambio y volcado según lo que necesite, siempre y cuando los nuevos tamaños permitan el funcionamiento del sistema. Para obtener más información, consulte Ajuste del tamaño de los dispositivos de intercambio y volcado ZFS.
Entorno de inicio: aparte de nuevos requisitos de espacio de intercambio o volcado, o de tamaños de dispositivos de intercambio o volcado, un entorno de inicio ZFS que se migra de UFS necesita unos 6 GB. Cada entorno de inicio ZFS que se clona de otro entorno de inicio ZFS no necesita espacio en el disco adicional, pero se debe tener en cuenta que el tamaño del entorno de inicio aumentará al aplicarse parches. Todos los entornos de inicio ZFS de la misma agrupación raíz deben utilizar los mismos dispositivos de intercambio y volcado.
Componentes del sistema operativo Solaris: todos los subdirectorios del sistema de archivos raíz que forman parte de la imagen del sistema operativo, con la excepción de /var, deben estar en el mismo conjunto de datos que el sistema de archivos raíz. Además, todos los componentes del sistema operativo Solaris deben residir en la agrupación raíz, con la excepción de los dispositivos de intercambio y volcado.
Otra restricción es que el directorio o el conjunto de datos/var debe ser un único conjunto de datos. Por ejemplo, no puede crear un conjunto de datos /var descendiente, como, por ejemplo, /var/tmp, si desea utilizar también Actualización automática de Oracle Solaris para migrar o parchear un entorno de inicio ZFS o crear un archivo de almacenamiento flash ZFS de esta agrupación.
Por ejemplo, un sistema con 12 GB de espacio en el disco puede ser demasiado pequeño para un entorno ZFS que se puede iniciar, ya que se necesitan 2 GB de espacio en el disco para cada dispositivo de intercambio y volcado, así como unos 6 GB de espacio en el disco para el entorno de inicio ZFS que se migra de un entorno de inicio UFS.
Revise los siguientes requisitos de configuración de la agrupación de almacenamiento ZFS:
La agrupación que está destinada a ser la agrupación raíz debe tener una etiqueta SMI. Este requisito se cumple si la agrupación se crea con segmentos de disco.
La agrupación debe existir ya sea en un segmento de disco o en segmentos de disco que se han reflejado. Si en el transcurso de una migración con Actualización automática de Oracle Solaris se intenta utilizar una configuración de agrupación no permitida, aparecerá un mensaje similar al siguiente:
ERROR: ZFS pool name does not support boot environments |
Para obtener una descripción detallada de las configuraciones admitidas para la agrupación raíz ZFS, consulte Creación de una agrupación raíz ZFS.
x86: el disco debe contener una partición fdisk de Solaris. Se crea una partición fdisk de Solaris automáticamente cuando se instala el sistema basado en x86. Para obtener más información acerca de las particiones fdisk de Solaris, consulte Guidelines for Creating an fdisk Partition de System Administration Guide: Devices and File Systems.
Los discos destinados a iniciarse en una agrupación raíz ZFS deben tener como límite de tamaño 1 TB, tanto en sistemas SPARC como x86.
La compresión puede habilitarse en la agrupación raíz, pero sólo después de que se haya instalado la agrupación raíz. No hay forma de habilitar la compresión en una agrupación raíz durante la instalación. El algoritmo de compresión gzip no se admite en las agrupaciones raíz.
No cambie el nombre de la agrupación raíz después de su creación mediante una instalación inicial o tras la migración con Actualización automática de Oracle Solaris a un sistema de archivos raíz ZFS. El cambio de la agrupación raíz puede impedir el inicio del sistema.
En esta versión de Solaris, puede efectuar una instalación inicial mediante el instalador de texto interactivo de Solaris para crear una agrupación de almacenamiento ZFS que contenga un sistema de archivos raíz ZFS que se pueda iniciar. Si dispone de una agrupación de almacenamiento ZFS que desea utilizar en el sistema de archivos raíz ZFS, debe emplear Actualización automática de Oracle Solaris para migrar del sistema de archivos raíz UFS actual a uno ZFS que haya en una agrupación de almacenamiento ZFS. Para obtener más información, consulte Migración de un sistema de archivos raíz UFS a uno ZFS (Actualización automática de Oracle Solaris).
Si va a configurar las zonas después de la instalación inicial de un sistema de archivos raíz ZFS y tiene previsto aplicar parches o actualizaciones al sistema, consulte Uso de Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas (Solaris 10 10/08) o Uso de Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas (al menos Solaris 10 5/09).
Si ya tiene agrupaciones de almacenamiento ZFS en el sistema, se confirman con el siguiente mensaje. Sin embargo, estas agrupaciones permanecen intactas, a menos que se seleccionen los discos de las agrupaciones existentes para crear la nueva agrupación de almacenamiento.
There are existing ZFS pools available on this system. However, they can only be upgraded using the Live Upgrade tools. The following screens will only allow you to install a ZFS root system, not upgrade one. |
Las agrupaciones que existan se destruirán si para la nueva agrupación se selecciona cualquiera de sus discos.
Antes de comenzar la instalación inicial para crear una agrupación de almacenamiento ZFS, consulte Requisitos de instalación de Oracle Solaris y de Actualización automática de Oracle Solaris para compatibilidad con ZFS.
El proceso de instalación de texto interactivo de Solaris es, básicamente, el mismo que el de anteriores versiones de Solaris, salvo el hecho de indicar al usuario que cree un sistema de archivos raíz UFS o ZFS. En esta versión, UFS sigue siendo el sistema de archivos predeterminado. Si se selecciona un sistema de archivos raíz ZFS, se indica al usuario que cree una agrupación de almacenamiento ZFS. Los pasos necesarios para instalar un sistema de archivos raíz ZFS se indican a continuación:
Seleccione el método de instalación interactiva de Solaris porque para crear un sistema de archivos raíz ZFS que se puede iniciar no se dispone de la instalación flash de Solaris. Sin embargo, puede crear un archivo de almacenamiento flash ZFS para utilizarlo durante una instalación JumpStart. Para obtener más información, consulte Instalación de un sistema de archivos raíz ZFS (instalación de archivo de almacenamiento flash de Oracle Solaris).
A partir de la versión Solaris 10 10/08, puede migrar un sistema de archivos raíz UFS a un sistema de archivos raíz ZFS siempre que ya se haya instalado al menos la versión Solaris 10 10/08. Para obtener más información sobre cómo migrar a un sistema de archivos raíz ZFS, consulte Migración de un sistema de archivos raíz UFS a uno ZFS (Actualización automática de Oracle Solaris).
Para crear un sistema de archivos raíz ZFS, seleccione la opción ZFS. Por ejemplo:
Choose Filesystem Type Select the filesystem to use for your Solaris installation [ ] UFS [X] ZFS |
Una vez seleccionado el software que se instalará, se le pedirá que seleccione los discos para crear la agrupación de almacenamiento ZFS. Esta pantalla es similar a la de las versiones anteriores de Solaris.
Select Disks On this screen you must select the disks for installing Solaris software. Start by looking at the Suggested Minimum field; this value is the approximate space needed to install the software you've selected. For ZFS, multiple disks will be configured as mirrors, so the disk you choose, or the slice within the disk must exceed the Suggested Minimum value. NOTE: ** denotes current boot disk Disk Device Available Space ============================================================================= [X] c1t0d0 69994 MB (F4 to edit) [ ] c1t1d0 69994 MB [-] c1t2d0 0 MB [-] c1t3d0 0 MB Maximum Root Size: 69994 MB Suggested Minimum: 8279 MB |
Puede seleccionar el disco o los discos que deben usarse para la agrupación raíz ZFS. Si selecciona dos discos, para la agrupación raíz se establece una configuración de dos discos reflejados. La configuración óptima es una agrupación de dos o tres discos reflejados. Si tiene ocho discos y los selecciona todos, se utilizan para la agrupación raíz como un gran reflejo. Esta configuración no es óptima. Otra opción es crear una agrupación raíz reflejada cuando se haya terminado la instalación inicial. No es posible efectuar una configuración de agrupaciones RAID-Z para la agrupación raíz. Si desea más información sobre la configuración de agrupaciones de almacenamiento ZFS, consulte Funciones de repetición de una agrupación de almacenamiento de ZFS.
Para seleccionar dos discos para crear una agrupación raíz reflejada, utilice las teclas de control del cursor para seleccionar el segundo disco. En el ejemplo siguiente, tanto c1t1d0 como c1t2d0 se seleccionan como los discos de la agrupación raíz. Los dos discos deben tener una etiqueta SMI y un segmento 0. Si los discos no están etiquetados con una etiqueta SMI o no contienen segmentos, debe salir del programa de instalación, usar la utilidad format para reetiquetar y reparticionar los discos y, a continuación, reiniciar el programa de instalación.
Select Disks On this screen you must select the disks for installing Solaris software. Start by looking at the Suggested Minimum field; this value is the approximate space needed to install the software you've selected. For ZFS, multiple disks will be configured as mirrors, so the disk you choose, or the slice within the disk must exceed the Suggested Minimum value. NOTE: ** denotes current boot disk Disk Device Available Space ============================================================================= [X] c1t0d0 69994 MB [X] c1t1d0 69994 MB (F4 to edit) [-] c1t2d0 0 MB [-] c1t3d0 0 MB Maximum Root Size: 69994 MB Suggested Minimum: 8279 MB |
Si la columna Esp. disponible identifica 0 MB, es muy probable que el disco tenga una etiqueta EFI. Si desea utilizar un disco con una etiqueta EFI, deberá salir del programa de instalación, volver a etiquetar el disco con una etiqueta SMI utilizando el comando format -e y, a continuación, reiniciar el programa de instalación.
Si no crea una agrupación raíz reflejada durante la instalación, puede crear fácilmente una después de la instalación. Para obtener información, consulte Cómo crear una agrupación raíz reflejada (posterior a la instalación).
Tras haber seleccionado uno o varios discos para la agrupación de almacenamiento ZFS, aparece una pantalla similar a la siguiente:
Configure ZFS Settings Specify the name of the pool to be created from the disk(s) you have chosen. Also specify the name of the dataset to be created within the pool that is to be used as the root directory for the filesystem. ZFS Pool Name: rpool ZFS Root Dataset Name: s10s_u9wos_08 ZFS Pool Size (in MB): 69995 Size of Swap Area (in MB): 2048 Size of Dump Area (in MB): 1536 (Pool size must be between 6231 MB and 69995 MB) [X] Keep / and /var combined [ ] Put /var on a separate dataset |
En esta pantalla se puede cambiar el nombre de la agrupación ZFS, el nombre del conjunto de datos, el tamaño de la agrupación y el tamaño de los dispositivos de intercambio y volcado. Para ello, con las teclas de control del cursor desplácese por las entradas y sustituya los valores predeterminados por los nuevos. Si lo desea, puede aceptar los valores predeterminados. Además, puede modificar el modo de crear y montar el sistema de archivos /var.
En este ejemplo, el nombre del conjunto de datos raíz se cambia a zfsBE.
ZFS Pool Name: rpool ZFS Root Dataset Name: zfsBE ZFS Pool Size (in MB): 69995 Size of Swap Area (in MB): 2048 Size of Dump Area (in MB): 1536 (Pool size must be between 6231 MB and 69995 MB) [X] Keep / and /var combined [ ] Put /var on a separate dataset |
El perfil de instalación se puede cambiar en esta pantalla final de la instalación. Por ejemplo:
Profile The information shown below is your profile for installing Solaris software. It reflects the choices you've made on previous screens. ============================================================================ Installation Option: Initial Boot Device: c1t0d0 Root File System Type: ZFS Client Services: None Regions: North America System Locale: C ( C ) Software: Solaris 10, Entire Distribution Pool Name: rpool Boot Environment Name: zfsBE Pool Size: 69995 MB Devices in Pool: c1t0d0 c1t1d0 |
Una vez finalizada la instalación, examine la información del sistema de archivos y la agrupación de almacenamiento ZFS resultante. Por ejemplo:
# zpool status pool: rpool state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c1t0d0s0 ONLINE 0 0 0 c1t1d0s0 ONLINE 0 0 0 errors: No known data errors # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 8.03G 58.9G 96K /rpool rpool/ROOT 4.47G 58.9G 21K legacy rpool/ROOT/zfsBE 4.47G 58.9G 4.47G / rpool/dump 1.50G 58.9G 1.50G - rpool/export 44K 58.9G 23K /export rpool/export/home 21K 58.9G 21K /export/home rpool/swap 2.06G 61.0G 16K - |
La salida de zfs list de ejemplo identifica los componentes de la agrupación raíz, por ejemplo el directorio rpool/ROOT, al que de forma predeterminada no se puede acceder.
Si desea crear otro entorno de inicio ZFS en la misma agrupación de almacenamiento, puede utilizar el comando lucreate. En el ejemplo siguiente, se crea un nuevo entorno de inicio denominado zfs2BE. El entorno de inicio actual se denomina zfsBE, como se muestra en la salida zfs list. Sin embargo, el entorno de inicio actual no se confirma en la salida lustatus hasta que se crea el entorno de inicio nuevo.
# lustatus ERROR: No boot environments are configured on this system ERROR: cannot determine list of all boot environment names |
Si se crea un entorno de inicio nuevo en la misma agrupación de inicio, se debe utilizar una sintaxis parecida a la siguiente:
# lucreate -n zfs2BE INFORMATION: The current boot environment is not named - assigning name <zfsBE>. Current boot environment is named <zfsBE>. Creating initial configuration for primary boot environment <zfsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. Creating configuration for boot environment <zfs2BE>. Source boot environment is <zfsBE>. Creating boot environment <zfs2BE>. Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>. Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>. Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>. Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>. Population of boot environment <zfs2BE> successful. Creation of boot environment <zfs2BE> successful. |
La creación de un entorno de inicio ZFS en la misma agrupación utiliza las funciones de clonación e instantánea para crear instantáneamente el entorno de inicio. Si desea más información sobre el uso de Actualización automática de Oracle Solaris para una migración de raíz ZFS, consulte Migración de un sistema de archivos raíz UFS a uno ZFS (Actualización automática de Oracle Solaris).
A continuación, verifique los entornos de inicio nuevos. Por ejemplo:
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes yes yes no - zfs2BE yes no no yes - # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 8.03G 58.9G 97K /rpool rpool/ROOT 4.47G 58.9G 21K legacy rpool/ROOT/zfs2BE 116K 58.9G 4.47G / rpool/ROOT/zfsBE 4.47G 58.9G 4.47G / rpool/ROOT/zfsBE@zfs2BE 75.5K - 4.47G - rpool/dump 1.50G 58.9G 1.50G - rpool/export 44K 58.9G 23K /export rpool/export/home 21K 58.9G 21K /export/home rpool/swap 2.06G 61.0G 16K - |
Para iniciar desde un entorno de inicio alternativo, use el comando luactivate. Después de activar el entorno de inicio en un sistema basado en SPARC, utilice el comando boot - L para identificar los entornos de inicio disponibles cuando el dispositivo de inicio contenga una agrupación de almacenamiento ZFS. En el caso de iniciar desde un sistema basado en x86, identifique el entorno de inicio se debe iniciar desde el menú GRUB.
Por ejemplo, en un sistema basado en SPARC, utilice el comando boot - L para obtener una lista con los entornos de inicio disponibles. Para iniciar desde el nuevo entorno de inicio, zfs2BE, seleccione la opción 2. A continuación, escriba el comando boot -Z que aparece.
ok boot -L Executing last command: boot -L Boot device: /pci@7c0/pci@0/pci@1/pci@0,2/LSILogic,sas@2/disk@0 File and args: -L 1 zfsBE 2 zfs2BE Select environment to boot: [ 1 - 2 ]: 2 To boot the selected entry, invoke: boot [<root-device>] -Z rpool/ROOT/zfs2BE ok boot -Z rpool/ROOT/zfs2BE |
Si desea más información sobre cómo iniciar un sistema de archivos ZFS, consulte Inicio desde un sistema de archivos raíz ZFS.
Si no creó una agrupación raíz ZFS reflejada durante la instalación, puede crear una fácilmente después de la instalación.
Si necesita información sobre la sustitución de un disco en una agrupación raíz, consulte Cómo sustituir un disco en la agrupación raíz ZFS.
Muestre el estado actual de la agrupación raíz.
# zpool status rpool pool: rpool state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 c1t0d0s0 ONLINE 0 0 0 errors: No known data errors |
Conecte un segundo disco para configurar una agrupación raíz reflejada.
# zpool attach rpool c1t0d0s0 c1t1d0s0 Please be sure to invoke installboot(1M) to make 'c1t1d0s0' bootable. Make sure to wait until resilver is done before rebooting. |
Vea el estado de la agrupación raíz para confirmar que se ha completado creación.
# zpool status rpool pool: rpool state: ONLINE status: One or more devices is currently being resilvered. The pool will continue to function, possibly in a degraded state. action: Wait for the resilver to complete. scrub: resilver in progress for 0h1m, 24.26% done, 0h3m to go config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c1t0d0s0 ONLINE 0 0 0 c1t1d0s0 ONLINE 0 0 0 3.18G resilvered errors: No known data errors |
En la salida anterior, el proceso de creación no se ha completado. La creación se ha completado cuando se muestran mensajes parecidos al siguiente:
scrub: resilver completed after 0h10m with 0 errors on Thu Mar 11 11:27:22 2010 |
Aplique bloques de inicio al segundo disco cuando se haya completado la creación.
sparc# installboot -F zfs /usr/platform/`uname -i`/lib/fs/zfs/bootblk /dev/rdsk/c1t1d0s0 |
x86# installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c1t1d0s0 |
Compruebe que puede iniciar desde el segundo disco.
Configure el sistema para que se inicie automáticamente desde el disco nuevo, mediante el comando eeprom o el comando setenv desde la PROM de inicio de SPARC. O bien, vuelva a configurar el BIOS del PC.
A partir de la versión Solaris 10 10/09, puede crear un archivo de almacenamiento flash en un sistema que esté ejecutando un sistema de archivos raíz UFS o un sistema de archivos raíz ZFS. Un archivo de almacenamiento flash de una agrupación ZFS contiene toda la jerarquía de la agrupación, excepto los volúmenes de intercambio y volcado, así como cualquier conjunto de datos excluido. Los volúmenes de intercambio y volcado se crean cuando se instala el archivo de almacenamiento flash. Puede utilizar el método de instalación del archivo de almacenamiento flash como sigue:
Genere un archivo de almacenamiento flash que pueda utilizarse para instalar e iniciar un sistema con un sistema de archivos raíz ZFS.
Realice una instalación JumpStart de un sistema mediante un archivo de almacenamiento flash ZFS. La creación de un archivo de almacenamiento flash ZFS clona toda una agrupación raíz, no entornos de inicio individuales. Los conjuntos de datos individuales en la agrupación se pueden excluir mediante la opción D del comando flarcreate y el comando -flar.
Revise las siguientes limitaciones antes de considerar la instalación de un sistema con un archivo de almacenamiento flash ZFS:
Sólo se admite una instalación JumpStart de un archivo de almacenamiento flash ZFS. No se puede usar la opción de instalación interactiva de un archivo de almacenamiento flash para instalar un sistema con un sistema de archivos raíz ZFS. Tampoco puede utilizar un archivo de almacenamiento flash para instalar un entorno de inicio ZFS con Actualización automática de Oracle Solaris.
Sólo puede instalar un archivo de almacenamiento flash en un sistema que tenga la misma arquitectura que el sistema en el que se creó el archivo de almacenamiento flash ZFS. Por ejemplo, un archivo de almacenamiento que se haya creado en un sistema sun4u no se puede instalar en un sistema sun4v.
Sólo se admite una instalación inicial completa de un archivo de almacenamiento flash ZFS. No es posible instalar un archivo de almacenamiento flash diferencial de un sistema de archivos raíz ZFS ni un archivo de almacenamiento UFS/ZFS híbrido.
Los archivos de almacenamiento flash UFS existentes sólo se pueden seguir utilizando para instalar un sistema de archivos raíz UFS. El archivo de almacenamiento flash ZFS sólo puede utilizarse para instalar un sistema de archivos raíz ZFS.
Aunque toda la agrupación raíz, menos los conjuntos de datos explícitamente excluidos, esté archivada e instalada, sólo se puede utilizar el entorno de inicio ZFS que se inicie durante la creación del archivo de almacenamiento, después de que se instale el archivo de almacenamiento flash. Sin embargo, las agrupaciones que se han archivado con la opción -R del comando flarcreate o flar rootdir se pueden usar para archivar una agrupación raíz que no sea la que se ha iniciado actualmente.
El nombre de la agrupación raíz ZFS que se crea con un archivo de almacenamiento flash debe coincidir con el nombre de la agrupación raíz principal. El nombre de la agrupación raíz que se usa para crear el archivo de almacenamiento flash es el nombre que se asigna a la nueva agrupación creada. El cambio de nombre de la agrupación no se admite.
Las opciones de los comandos flarcreate y flar para incluir y excluir archivos individuales no se admiten en un archivo de almacenamiento flash ZFS. Sólo se pueden excluir conjuntos de datos completos desde un archivo de almacenamiento flash ZFS.
El comando flar info no se admite para un archivo de almacenamiento flash ZFS. Por ejemplo:
# flar info -l zfs10u8flar ERROR: archive content listing not supported for zfs archives. |
Después de que se haya instalado al menos Solaris 10 10/09 en el sistema principal o se haya actualizado a dicha versión, puede crear un archivo de almacenamiento flash ZFS a fin de utilizarlo para instalar un sistema de destino. A continuación se expone el proceso básico:
Instale o actualice al menos a la versión Solaris 10 10/09 en el sistema principal. Agregue las personalizaciones que desee.
Cree el archivo de almacenamiento flash ZFS con el comando flarcreate en el sistema principal. Todos los conjuntos de datos de la agrupación raíz, excepto para los volúmenes de intercambio y volcado, se incluyen en el archivo de almacenamiento flash ZFS.
Cree un perfil de JumpStart para que incluya la información del archivo de almacenamiento flash en el servidor de instalación.
Instale el archivo de almacenamiento flash ZFS en el sistema de destino.
Las siguientes opciones de archivo de almacenamiento son compatibles para instalar una agrupación raíz ZFS con un archivo de almacenamiento flash:
Utilice el comando flarcreate o flar para crear un archivo de almacenamiento flash desde la agrupación raíz ZFS especificada. Si no se especifica, se crea un archivo de almacenamiento flash de la agrupación raíz predeterminada.
Utilice flarcreate -D conjunto_datos para excluir los conjuntos de datos especificados del archivo de almacenamiento flash. Esta opción se puede usar varias veces para excluir varios conjuntos de datos.
Después de instalar un archivo de almacenamiento flash ZFS, el sistema se configura como sigue:
Toda la jerarquía del conjunto de datos que existía en el sistema en el que se creó el archivo de almacenamiento flash se vuelve a crear en el sistema de destino, menos los conjuntos de datos que se excluyeron específicamente en el momento de creación del archivo de almacenamiento. Los volúmenes de intercambio y volcado no se incluyen en el archivo de almacenamiento flash.
La agrupación raíz tiene el mismo nombre que la agrupación que se usó para crear el archivo de almacenamiento.
El entorno de inicio que estaba activo en el momento en el que se creó el archivo de almacenamiento flash es el entorno de inicio activo y predeterminado en los sistemas implementados.
Después de que se haya instalado al menos Solaris 10 10/09 en el sistema principal o se haya actualizado a dicha versión, cree un archivo de almacenamiento flash de la agrupación raíz ZFS. Por ejemplo:
# flarcreate -n zfsBE zfs10upflar Full Flash Checking integrity... Integrity OK. Running precreation scripts... Precreation scripts done. Determining the size of the archive... The archive will be approximately 4.94GB. Creating the archive... Archive creation complete. Running postcreation scripts... Postcreation scripts done. Running pre-exit scripts... Pre-exit scripts done. |
En el sistema que se utilizará como servidor de instalación, cree un perfil JumpStart como lo haría para instalar cualquier sistema. Por ejemplo, el siguiente perfil se usa para instalar el archivo de almacenamiento zfs10upflar.
install_type flash_install archive_location nfs system:/export/jump/zfs10upflar partitioning explicit pool rpool auto auto auto mirror c0t1d0s0 c0t0d0s0 |
Puede crear un perfil JumpStart para instalar un sistema de archivos raíz ZFS o un sistema de archivos raíz UFS.
Un perfil propio de ZFS debe contener la nueva palabra clave pool. La palabra clave pool instala una nueva agrupación raíz y, de forma predeterminada, se crea un nuevo entorno de inicio. Puede proporcionar el nombre del entorno de inicio y crear un conjunto de datos /var aparte con las palabras clave bootenv installbe y las opciones bename y dataset.
Para obtener información general sobre el uso de las funciones de JumpStart, consulte Guía de instalación de Oracle Solaris 10 9/10: Instalaciones JumpStart personalizadas y avanzadas.
Si va a configurar las zonas después de la instalación JumpStart de un sistema de archivos raíz ZFS y tiene previsto aplicar parches o actualizaciones al sistema, consulte Uso de Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas (Solaris 10 10/08) o Uso de Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas (al menos Solaris 10 5/09).
Las siguientes palabras clave se permiten en un perfil propio de ZFS:
Especifica automáticamente el tamaño de los segmentos para la agrupación, el volumen de intercambio o el de volcado. Se comprueba el tamaño del disco para verificar que tenga cabida el tamaño mínimo. Si tiene cabida el tamaño mínimo, el tamaño máximo de agrupación se asigna según las limitaciones, por ejemplo el tamaño de los discos, los segmentos que se mantienen, etcétera.
Por ejemplo, si se especifica c0t0d0s0, se crea el segmento de agrupación raíz con el tamaño máximo al especificar las palabras clave all o auto. También puede especificarse un determinado tamaño para el segmento o el volumen de intercambio o volcado.
La palabra clave auto funciona de forma parecida a all si se utiliza con una agrupación raíz ZFS porque las agrupaciones carecen del concepto de espacio no utilizado.
Identifica las características del entorno de inicio.
Utilice la siguiente sintaxis de la palabra clave bootenv para crear un entorno raíz ZFS que se pueda iniciar:
bootenv installbe bename nombre_entorno_inicio [ conjunto_datos punto_montaje]
Crea un entorno de inicio que se identifica mediante la opción bename y la entrada de nombre_entorno_inicio, y lo instala.
Identifica el nombre_entorno_inicio que se va a instalar.
Si bename no se utiliza con la palabra clave pool, se crea un entorno de inicio predeterminado.
Utilice la palabra clave opcional dataset para identificar un conjunto de datos de /var independiente del conjunto de datos raíz. El valor de punto_montaje actualmente se limita a /var. Por ejemplo, una línea de sintaxis bootenv para un conjunto de datos de /var sería similar a lo siguiente:
bootenv installbe bename zfsroot dataset /var |
Define la nueva agrupación raíz que se va a crear. Se debe proporcionar la siguiente sintaxis de palabra clave:
pool poolname poolsize swapsize dumpsize vdevlist |
Identifica el nombre de la agrupación que se va a crear. La agrupación se crea con el tamaño de agrupación indicado y con los dispositivos físicos especificados (vdisp). El valor poolname no debe identificar el nombre de una agrupación que exista o dicha agrupación se sobrescribirá.
Especifica el tamaño de la agrupación que se va a crear. El valor puede ser auto o existing. El valor auto asigna el máximo tamaño de agrupación posible según limitaciones como el tamaño de los discos, los segmentos que se mantienen, etcétera. El valor existing significa que los límites de los segmentos existentes según ese nombre se mantienen y no se sobrescriben. A menos que indique g (gigabytes), se da por sentado que el tamaño es en megabytes.
Especifica el tamaño del volumen de intercambio que se va a crear. El valor auto significa que se utiliza el tamaño de intercambio predeterminado. Puede especificar un tamaño con un valor tamaño. El tamaño es en MB, a menos que lo especifique por g (GB).
Especifica el tamaño del volumen de volcado que se va a crear. El valor auto significa que se utiliza el valor tamaño de intercambio. Puede especificar un tamaño con un valor tamaño. A menos que indique g (gigabytes), se da por sentado que el tamaño es en megabytes.
Especifica uno o más dispositivos que se utilizan para crear la agrupación. El formato de lista_dispositivos_volumen es el mismo que el del comando zpool create. Hasta el momento, las configuraciones reflejadas sólo son factibles si se especifican varios dispositivos. Los dispositivos de la lista_dispositivos_volumen deben ser segmentos de la agrupación raíz. El valor any significa que el software de instalación selecciona un dispositivo apropiado.
Puede reflejar cuantos discos quiera. Ahora bien, el tamaño de la agrupación que se crea queda determinado por el disco más pequeño de todos los discos que se especifiquen. Si desea más información sobre cómo crear agrupaciones de almacenamiento reflejadas, consulte Configuración reflejada de agrupaciones de almacenamiento.
En esta sección se proporcionan ejemplos de perfiles JumpStart propios de ZFS.
El perfil siguiente efectúa una instalación inicial especificada con install_type instalación_inicial en una agrupación nueva, identificada con pool agrupación_nueva, cuyo tamaño se establece automáticamente mediante la palabra clave auto en el tamaño de los discos especificados. De manera automática, se asigna un tamaño al área de intercambio y el dispositivo de volcado mediante la palabra clave auto en una configuración reflejada de discos (con la palabra clave mirror y los discos especificados como c0t0d0s0 y c0t1d0s0). Las características del entorno de inicio se establecen con la palabra clave bootenv para instalar un nuevo entorno de inicio con la palabra clave installbe y se crea un bename denominado s10-xx.
install_type initial_install pool newpool auto auto auto mirror c0t0d0s0 c0t1d0s0 bootenv installbe bename s10-xx |
El perfil siguiente efectúa una instalación inicial con la palabra clave install_type instalación_inicial del metaclúster SUNWCall en una agrupación nueva denominada newpool que tiene un tamaño de 80 GB. Esta agrupación se crea con un volumen de intercambio de 2 GB y un volumen de volcado de 2 GB, en una configuración reflejada de dos dispositivos suficientemente grandes como para crear una agrupación de 80 GB. La instalación no puede realizarse correctamente si esos dos dispositivos no están disponibles. Las características del entorno de inicio se establecen con la palabra clave bootenv para instalar un nuevo entorno de inicio con la palabra clave installbe y se crea un bename denominado s10–xx.
install_type initial_install cluster SUNWCall pool newpool 80g 2g 2g mirror any any bootenv installbe bename s10-xx |
La sintaxis de instalación de JumpStart admite la capacidad de mantener o crear un sistema de archivos UFS en un disco que también incluya una agrupación raíz ZFS. Esta configuración no se recomienda en sistemas de producción; sin embargo, es apta para una transición o migración en un sistema pequeño, por ejemplo un portátil.
Antes de comenzar una instalación JumpStart en un sistema de archivos raíz ZFS que se puede iniciar, tenga en cuenta los problemas siguientes:
Para crear un sistema de archivos raíz ZFS que se puede iniciar no se puede utilizar una agrupación de almacenamiento de una instalación JumpStart. Se debe crear una agrupación de almacenamiento ZFS con una sintaxis similar a la siguiente:
pool rpool 20G 4G 4G c0t0d0s0 |
Debe crear una agrupación con segmentos de disco en lugar de discos enteros, como se explica en Requisitos de instalación de Oracle Solaris y de Actualización automática de Oracle Solaris para compatibilidad con ZFS. Por ejemplo, la sintaxis en negrita en el siguiente ejemplo no es aceptable:
install_type initial_install cluster SUNWCall pool rpool all auto auto mirror c0t0d0 c0t1d0 bootenv installbe bename newBE |
La sintaxis en negrita en el ejemplo siguiente es aceptable:
install_type initial_install cluster SUNWCall pool rpool all auto auto mirror c0t0d0s0 c0t1d0s0 bootenv installbe bename newBE |
Las funciones de Actualización automática de Oracle Solaris relacionadas con componentes UFS siguen disponibles, y funcionan igual que en las versiones anteriores de Solaris.
También están disponibles estas funciones:
Al migrar un sistema de archivos raíz UFS a uno ZFS, se debe designar una agrupación de almacenamiento ZFS que ya exista con la opción -p.
Si el sistema de archivos raíz UFS tiene componentes en distintos segmentos, se migran a la agrupación raíz ZFS.
Puede migrar un sistema con zonas pero las configuraciones admitidas están limitadas en la versión Solaris 10 10/08. Se admiten más configuraciones de zona a partir de la versión Solaris 10 5/09. Para obtener más información, consulte las secciones siguientes:
Si va a migrar un sistema sin zonas, consulte Uso de Actualización automática de Oracle Solaris para migrar a un sistema de archivos raíz ZFS (sin zonas).
Actualización automática de Oracle Solaris puede utilizar la instantánea de ZFS y clonar funciones si se crea un entorno de inicio ZFS en la misma agrupación. Así, la creación de entornos de inicio es mucho más rápida que en versiones anteriores de Solaris.
Si desea más información sobre la instalación de Oracle Solaris y las funciones de Actualización automática de Oracle Solaris, consulte Guía de instalación de Oracle Solaris 10 9/10: Actualización automática de Solaris y planificación de la actualización.
A continuación se expone el procedimiento básico para migrar un sistema de archivos raíz UFS a uno ZFS:
Instale la versión 10 10/08, Solaris 10 5/09, Solaris 10 10/09 o Oracle Solaris 10 9/10, o bien emplee un programa de actualización estándar para actualizar de una versión anterior de Solaris 10 en cualquier sistema admitido que se base en SPARC o x 86.
Si se ejecuta al menos la versión Solaris 10 10/08, cree una agrupación de almacenamiento ZFS para el sistema de archivos raíz ZFS.
Utilice Actualización automática de Oracle Solaris para migrar de un sistema de archivos raíz UFS a uno ZFS.
Active el entorno de inicio ZFS con el comando luactivate.
Si necesita información sobre los requisitos de ZFS y Actualización automática de Oracle Solaris, consulte Requisitos de instalación de Oracle Solaris y de Actualización automática de Oracle Solaris para compatibilidad con ZFS.
Antes de utilizar Actualización automática de Oracle Solaris para migrar el sistema de archivos UFS a un sistema de archivos raíz ZFS, examine la siguiente lista de problemas:
La opción de actualización estándar de la GUI de Actualización automática de Oracle Solaris no está disponible para migrar de un sistema de archivos raíz UFS a uno ZFS. Para migrar de un sistema de archivos raíz UFS, debe utilizar Actualización automática de Oracle Solaris.
Debe crear la agrupación de almacenamiento ZFS que se utilizará para el inicio antes de ejecutar Actualización automática de Oracle Solaris. Asimismo, debido a las actuales limitaciones de inicio, la agrupación raíz ZFS se debe crear con segmentos en lugar de discos enteros. Por ejemplo:
# zpool create rpool mirror c1t0d0s0 c1t1d0s0 |
Antes de crear la agrupación, compruebe que los discos que se usarán en ella tengan una etiqueta SMI (VTOC) en lugar de una etiqueta EFI. Si se vuelve a etiquetar el disco con una etiqueta SMI, compruebe que el proceso de etiquetado no haya modificado el esquema de partición. En la mayoría de los casos, toda la capacidad del disco debe estar en los segmentos que se destinan a la agrupación raíz.
Actualización automática de Oracle Solaris no es apta para crear un entorno de inicio UFS a partir de un entorno de inicio ZFS. Si se migra el entorno de inicio UFS a uno ZFS y se mantiene el entorno de inicio UFS, se puede iniciar desde cualquiera de los dos entornos.
No cambie el nombre de los entornos de inicio ZFS con el comando zfs rename, ya que Actualización automática de Oracle Solaris no detecta el cambio de nombre. Los comandos que se puedan usar posteriormente, por ejemplo ludelete, no funcionarán. De hecho, no cambie el nombre de agrupaciones ni de sistemas de archivos ZFS si tiene entornos de inicio que quiere seguir utilizando.
Si se crea un entorno de inicio alternativo que sea un clon del entorno de inicio principal, no se pueden utilizar las opciones -f, -x, -y, - Y y -z para incluir o excluir archivos del entorno de inicio principal. Sin embargo, la opción de inclusión y exclusión se puede utilizar en los casos siguientes:
UFS -> UFS UFS -> ZFS ZFS -> ZFS (different pool) |
Si bien Actualización automática de Oracle Solaris se puede usar para actualizar el sistema de archivos raíz UFS a uno ZFS, no es apta para la actualización de sistemas de archivos compartidos o que no sean raíz.
El comando lu no es válido para crear o migrar un sistema de archivos raíz ZFS.
Los ejemplos siguientes ilustran la manera de migrar un sistema de archivos raíz UFS a uno ZFS.
Si desea migrar o actualizar un sistema con zonas, consulte las siguientes secciones:
El ejemplo siguiente ilustra la forma de crear un entorno de inicio de un sistema de archivos raíz ZFS desde un sistema de archivos raíz UFS. El entorno de inicio actual, ufsBE, que contiene un sistema de archivos raíz UFS, se identifica mediante la opción -c. Si no incluye la opción -c opcional, el nombre del entorno de inicio actual se convierte de forma predeterminada en el nombre del dispositivo. El entorno de inicio nuevo, zfsBE, se identifica mediante la opción -n. Antes de la operación lucreate debe haber una agrupación de almacenamiento ZFS.
Para que se pueda iniciar y actualizar, la agrupación de almacenamiento ZFS se debe crear con segmentos en lugar de discos enteros. Antes de crear la agrupación, compruebe que los discos que se usarán en ella tengan una etiqueta SMI (VTOC) en lugar de una etiqueta EFI. Si se vuelve a etiquetar el disco con una etiqueta SMI, compruebe que el proceso de etiquetado no haya modificado el esquema de partición. En la mayoría de los casos, toda la capacidad del disco debe estar en los segmentos que se destinan a la agrupación raíz.
# zpool create rpool mirror c1t2d0s0 c2t1d0s0 # lucreate -c ufsBE -n zfsBE -p rpool Analyzing system configuration. No name for current boot environment. Current boot environment is named <ufsBE>. Creating initial configuration for primary boot environment <ufsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <ufsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <ufsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t2d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <zfsBE>. Source boot environment is <ufsBE>. Creating boot environment <zfsBE>. Creating file systems on boot environment <zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>. Populating file systems on boot environment <zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </rpool/ROOT>. Creating compare database for file system </>. Updating compare databases on boot environment <zfsBE>. Making boot environment <zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-qD.mnt updating /.alt.tmp.b-qD.mnt/platform/sun4u/boot_archive Population of boot environment <zfsBE> successful. Creation of boot environment <zfsBE> successful. |
Tras finalizar la operación de lucreate, utilice el comando lustatus para ver el estado del entorno de inicio. Por ejemplo:
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- ufsBE yes yes yes no - zfsBE yes no no yes - |
A continuación, examine la lista de componentes de ZFS. Por ejemplo:
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.17G 59.8G 95.5K /rpool rpool/ROOT 4.66G 59.8G 21K /rpool/ROOT rpool/ROOT/zfsBE 4.66G 59.8G 4.66G / rpool/dump 2G 61.8G 16K - rpool/swap 517M 60.3G 16K - |
Después, utilice el comando luactivate para activar el nuevo entorno de inicio ZFS. Por ejemplo:
# luactivate zfsBE A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>. ********************************************************************** The target boot environment has been activated. It will be used when you reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You MUST USE either the init or the shutdown command when you reboot. If you do not use either init or shutdown, the system will not boot using the target BE. ********************************************************************** . . . Modifying boot archive service Activation of boot environment <zfsBE> successful. |
A continuación, reinicie el sistema en el entorno de inicio ZFS.
# init 6 |
Confirme que el entorno de inicio ZFS esté activo.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- ufsBE yes no no yes - zfsBE yes yes yes no - |
Si vuelve al entorno de inicio UFS, tendrá que volver a importar todas las agrupaciones de almacenamiento ZFS creadas en el entorno de inicio ZFS porque no están disponibles automáticamente en el entorno de inicio UFS.
Si ya no se necesita el entorno de inicio UFS, se puede eliminar con el comando ludelete.
El proceso de creación de un entorno de inicio ZFS desde un entorno de inicio ZFS es muy rápido porque esta operación utiliza las funciones de clonación e instantánea de ZFS. Si el entorno de inicio actual reside en la misma agrupación ZFS, se omite la opción -p.
Si tiene varios entornos de inicio ZFS, lleve a cabo el siguiente procedimiento para seleccionar el entorno de inicio desde el que desea iniciar:
SPARC: puede utilizar el comando boot -L para identificar los entornos de inicio disponibles y seleccionar un entorno de inicio desde el que se efectúe el inicio mediante el comando boot -Z.
x86: puede seleccionar un entorno de inicio desde el menú GRUB.
Para obtener más información, consulte el Ejemplo 5–9.
# lucreate -n zfs2BE Analyzing system configuration. No name for current boot environment. INFORMATION: The current boot environment is not named - assigning name <zfsBE>. Current boot environment is named <zfsBE>. Creating initial configuration for primary boot environment <zfsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. Creating configuration for boot environment <zfs2BE>. Source boot environment is <zfsBE>. Creating boot environment <zfs2BE>. Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>. Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>. Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>. Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>. Population of boot environment <zfs2BE> successful. Creation of boot environment <zfs2BE> successful. |
El entorno de inicio ZFS se puede actualizar con paquetes o parches adicionales.
A continuación se expone el proceso básico:
Crear un entorno de inicio alternativo con el comando lucreate.
Activar e iniciar desde el entorno de inicio alternativo.
Actualizar el entorno de inicio ZFS principal con el comando luupgrade para agregar paquetes o parches.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes no no yes - zfs2BE yes yes yes no - # luupgrade -p -n zfsBE -s /net/system/export/s10up/Solaris_10/Product SUNWchxge Validating the contents of the media </net/install/export/s10up/Solaris_10/Product>. Mounting the BE <zfsBE>. Adding packages to the BE <zfsBE>. Processing package instance <SUNWchxge> from </net/install/export/s10up/Solaris_10/Product> Chelsio N110 10GE NIC Driver(sparc) 11.10.0,REV=2006.02.15.20.41 Copyright (c) 2010, Oracle and/or its affiliates. All rights reserved. This appears to be an attempt to install the same architecture and version of a package which is already installed. This installation will attempt to overwrite this package. Using </a> as the package base directory. ## Processing package information. ## Processing system information. 4 package pathnames are already properly installed. ## Verifying package dependencies. ## Verifying disk space requirements. ## Checking for conflicts with packages already installed. ## Checking for setuid/setgid programs. This package contains scripts which will be executed with super-user permission during the process of installing this package. Do you want to continue with the installation of <SUNWchxge> [y,n,?] y Installing Chelsio N110 10GE NIC Driver as <SUNWchxge> ## Installing part 1 of 1. ## Executing postinstall script. Installation of <SUNWchxge> was successful. Unmounting the BE <zfsBE>. The package add to the BE <zfsBE> completed. |
Actualización automática de Oracle Solaris se puede utilizar para migrar un sistema con zonas, pero las configuraciones admitidas son limitadas en la versión Solaris 10 10/08. Si está instalando o actualizando al menos a la versión Solaris 10 5/09, se admiten más configuraciones de zona. Para obtener más información, consulte Uso de Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas (al menos Solaris 10 5/09).
En esta sección se explica el procedimiento para configurar e instalar un sistema con zonas para poder actualizarlo y aplicarle parches mediante Actualización automática de Oracle Solaris. Si va a migrar a un sistema de archivos raíz ZFS sin zonas, consulte Uso de Actualización automática de Oracle Solaris para migrar a un sistema de archivos raíz ZFS (sin zonas).
Si va a migrar un sistema con zonas, o bien si tiene previsto configurar un sistema con zonas en la versión Solaris 10 10/08, consulte los procedimientos siguientes:
Cómo configurar un sistema de archivos raíz ZFS con raíces de zona en ZFS (Solaris 10 10/08)
Resolución de problemas de punto de montaje ZFS que impiden un inicio correcto (Solaris 10 10/08)
Siga los procedimientos recomendados para configurar zonas de un sistema con un sistema de archivos raíz ZFS para asegurarse de poder utilizar en él Actualización automática de Oracle Solaris.
Este procedimiento explica cómo migrar un sistema de archivos raíz UFS con zonas instaladas a un sistema de archivos raíz ZFS y una configuración raíz de zona ZFS que se pueda actualizar o a la que se puedan aplicar parches.
En los pasos siguientes, el nombre de la agrupación de ejemplo es rpool y el del entorno de inicio actualmente activo es s10BE*.
Actualice el sistema a la versión Solaris 10 10/08 si se ejecuta una versión de Solaris 10 anterior.
Para obtener más información sobre cómo actualizar un sistema que ejecuta la versión Solaris 10, consulte Guía de instalación de Oracle Solaris 10 9/10: Actualización automática de Solaris y planificación de la actualización.
Cree la agrupación raíz.
# zpool create rpool mirror c0t1d0 c1t1d0 |
Si necesita información sobre los requisitos de agrupaciones raíz, consulte Requisitos de instalación de Oracle Solaris y de Actualización automática de Oracle Solaris para compatibilidad con ZFS.
Confirme que se hayan iniciado las zonas desde el entorno de inicio UFS.
Cree el nuevo entorno de inicio ZFS.
# lucreate -n s10BE2 -p rpool |
Este comando establece conjuntos de datos en la agrupación raíz del nuevo entorno de inicio y copia el entorno de inicio actual (zonas incluidas) en esos conjuntos de datos.
Active el nuevo entorno de inicio ZFS.
# luactivate s10BE2 |
El sistema ya ejecuta un sistema de archivos raíz ZFS; sin embargo, las raíces de zona de UFS siguen estando en el sistema de archivos raíz UFS. Los pasos siguientes son necesarios para migrar por completo las zonas UFS a una configuración ZFS compatible.
Reinicie el sistema.
# init 6 |
Migre las zonas a un entorno de inicio ZFS.
Solucione los posibles problemas de punto de montaje.
Debido a un error en Actualización automática de Oracle Solaris, el inicio del entorno de inicio no activo podría fallar porque un conjunto de datos ZFS o el conjunto de datos ZFS de una zona del entorno de inicio tiene un punto de montaje no válido.
Examine la salida de zfs list.
Busque puntos de montaje temporales incorrectos. Por ejemplo:
# zfs list -r -o name,mountpoint rpool/ROOT/s10u6 NAME MOUNTPOINT rpool/ROOT/s10u6 /.alt.tmp.b-VP.mnt/ rpool/ROOT/s10u6/zones /.alt.tmp.b-VP.mnt//zones rpool/ROOT/s10u6/zones/zonerootA /.alt.tmp.b-VP.mnt/zones/zonerootA |
El punto de montaje del entorno de inicio ZFS (rpool/ROOT/s10u6) debe ser /.
Restablezca los puntos de montaje del entorno de inicio ZFS y sus conjuntos de datos.
Por ejemplo:
# zfs inherit -r mountpoint rpool/ROOT/s10u6 # zfs set mountpoint=/ rpool/ROOT/s10u6 |
Reinicie el sistema.
Si se presenta la opción para iniciar un determinado entorno de inicio, en el menú GRUB o el indicador de OpenBoot PROM, seleccione el entorno de inicio cuyos puntos de montaje se han acabado de corregir.
Este procedimiento explica cómo configurar un sistema de archivos raíz ZFS y una configuración raíz de zona ZFS que se pueda actualizar o a la que se pueda aplicar parches. En esta configuración, las raíces de zona ZFS se crean como conjuntos de datos ZFS.
En los pasos siguientes, el nombre de la agrupación de ejemplo es rpool y el del entorno de inicio actualmente activo es s10BE. Cualquier nombre de conjunto de datos legal es valido como nombre para el conjunto de datos de zonas. En el ejemplo siguiente, el nombre del conjunto de datos de las zonas es zones.
Instale el sistema con una raíz ZFS, ya sea con el método del instalador de texto interactivo de Solaris o con el de la instalación Solaris JumpStart.
Si desea información sobre cómo instalar un sistema de archivos raíz ZFS con el método de instalación inicial o con Solaris JumpStart, consulte Instalación de un sistema de archivos raíz ZFS (instalación inicial) o Instalación de un sistema de archivos raíz ZFS (instalación JumpStart de Oracle Solaris).
Inicie el sistema desde la agrupación raíz recién creada.
Cree un conjunto de datos para agrupar las raíces de zona.
Por ejemplo:
# zfs create -o canmount=noauto rpool/ROOT/s10BE/zones |
El establecimiento del valor noauto para la propiedad canmount impide que otra acción distinta de la explícita de Actualización automática de Oracle Solaris y el código de inicio del sistema monte el conjunto de datos.
Monte el conjunto de datos de zonas recién creado.
# zfs mount rpool/ROOT/s10BE/zones |
El conjunto de datos se monta en /zones.
Cree y monte un conjunto de datos para cada raíz de zona.
# zfs create -o canmount=noauto rpool/ROOT/s10BE/zones/zonerootA # zfs mount rpool/ROOT/s10BE/zones/zonerootA |
Establezca los permisos pertinentes en el directorio raíz de zona.
# chmod 700 /zones/zonerootA |
Configure la zona estableciendo la ruta de zona como se indica a continuación:
# zonecfg -z zoneA zoneA: No such zone configured Use 'create' to begin configuring a new zone. zonecfg:zoneA> create zonecfg:zoneA> set zonepath=/zones/zonerootA |
Puede habilitar las zonas para que se inicien automáticamente cuando se inicie el sistema mediante la sintaxis siguiente:
zonecfg:zoneA> set autoboot=true |
Instale la zona.
# zoneadm -z zoneA install |
Inicie la zona.
# zoneadm -z zoneA boot |
Utilice este procedimiento cuando deba actualizar o aplicar parches a un sistema de archivos raíz ZFS con raíces de zona en ZFS. Las actualizaciones pueden consistir en una actualización del sistema o la aplicación de parches.
En los pasos siguientes, newBE es el nombre de ejemplo del entorno de inicio que se actualiza o al que se aplican parches.
Cree el entorno de inicio para actualizar o al que aplicar parches.
# lucreate -n newBE |
Se clona el entorno de inicio que ya existe, incluidas todas las zonas. Se crea un conjunto de datos para cada conjunto de datos del entorno de inicio original. Los nuevos conjuntos de datos se crean en la misma agrupación que la agrupación raíz actual.
Seleccione una de las opciones siguientes para actualizar el sistema o aplicar parches al nuevo entorno de inicio:
Actualice el sistema.
# luupgrade -u -n newBE -s /net/install/export/s10u7/latest |
La opción -s especifica la ubicación de un medio de instalación de Solaris.
Aplique parches al nuevo entorno de inicio.
# luupgrade -t -n newBE -t -s /patchdir 139147-02 157347-14 |
Active el nuevo entorno de inicio.
# luactivate newBE |
Inicie desde el entorno de inicio recién activado.
# init 6 |
Solucione los posibles problemas de punto de montaje.
Debido a un error en la función de Actualización automática de Oracle Solaris, el inicio del entorno de inicio no activo podría fallar porque un conjunto de datos ZFS o el conjunto de datos ZFS de una zona del entorno de inicio tiene un punto de montaje no válido.
Examine la salida de zfs list.
Busque puntos de montaje temporales incorrectos. Por ejemplo:
# zfs list -r -o name,mountpoint rpool/ROOT/newBE NAME MOUNTPOINT rpool/ROOT/newBE /.alt.tmp.b-VP.mnt/ rpool/ROOT/newBE/zones /.alt.tmp.b-VP.mnt/zones rpool/ROOT/newBE/zones/zonerootA /.alt.tmp.b-VP.mnt/zones/zonerootA |
El punto de montaje del entorno de inicio ZFS raíz (rpool/ROOT/newBE) debe ser /.
Restablezca los puntos de montaje del entorno de inicio ZFS y sus conjuntos de datos.
Por ejemplo:
# zfs inherit -r mountpoint rpool/ROOT/newBE # zfs set mountpoint=/ rpool/ROOT/newBE |
Reinicie el sistema.
Si se presenta la opción para iniciar un determinado entorno de inicio, en el menú GRUB o el indicador de OpenBoot PROM, seleccione el entorno de inicio cuyos puntos de montaje se han acabado de corregir.
Puede usar la función Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas a partir de la versión Solaris 10 10/08. Actualización automática admite las configuraciones de zona completas y dispersas adicionales a partir de la versión Solaris 10 5/09.
En esta sección se describe cómo configurar un sistema con zonas para que se pueda aplicar un parche o una actualización con Actualización automática de Oracle Solaris a partir de la versión Solaris 10 5/09. Si va a migrar a un sistema de archivos raíz ZFS sin zonas, consulte Uso de Actualización automática de Oracle Solaris para migrar a un sistema de archivos raíz ZFS (sin zonas).
Tenga en cuenta los puntos siguientes cuando se utilice Actualización automática de Oracle Solaris con ZFS y zonas a partir de la versión Solaris 10 5/09:
Para utilizar Actualización automática de Oracle Solaris con configuraciones de zona que se admiten a partir al menos de la versión Solaris 10 5/09, en primer lugar debe actualizar el sistema, al menos, a la versión Solaris 10 5/09, mediante el programa estándar de actualización.
A continuación, mediante Actualización automática de Oracle Solaris, puede migrar el sistema de archivos raíz UFS con raíces de zona a un sistema de archivos raíz ZFS, o bien puede aplicar un parche o una actualización al sistema de archivos raíz ZFS y las raíces de zona.
No se pueden migrar configuraciones de zona no admitidas de una versión anterior de Solaris 10 directamente a la versión Solaris 10 5/09.
Si está migrando o configurando un sistema con zonas a partir de la versión Solaris 10 5/09, revise la siguiente información:
Revise las configuraciones de zona admitidas antes de usar la función Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas.
Migración de un sistema de archivos raíz UFS a un sistema de archivos raíz ZFS – Se admiten las siguientes configuraciones de raíces de zona:
En un directorio del sistema de archivos raíz UFS
En un subdirectorio de un punto de montaje en el sistema de archivos raíz UFS
Sistema de archivos raíz UFS con una raíz de zona en un directorio de sistema de archivos raíz UFS o en un subdirectorio de un punto de montaje de un sistema de archivos raíz UFS y una agrupación no raíz ZFS con una zona raíz
La siguiente configuración UFS/zona no se admite: sistema de archivos raíz UFS que tiene una raíz de zona como punto de montaje.
Migración o actualización de un sistema de archivos raíz ZFS – Se admiten las siguientes configuraciones de raíces de zona:
En un conjunto de datos de la agrupación raíz ZFS. En algunos casos, si no se proporciona un conjunto de datos de la raíz de zona antes de la utilización de Actualización automática de Oracle Solaris, ésta creará un conjunto de datos para la raíz de zona (zoneds).
En un subdirectorio del sistema de archivos raíz ZFS
En un conjunto de datos fuera del sistema de archivos raíz ZFS
En el subdirectorio de un conjunto de datos fuera del sistema de archivos raíz ZFS
En un conjunto de datos de una agrupación no raíz. En el ejemplo siguiente, zonepool/zones es un conjunto de datos que contiene las raíces de zona y rpool contiene el entorno de inicio ZFS:
zonepool zonepool/zones zonepool/zones/myzone rpool rpool/ROOT rpool/ROOT/myBE |
Actualización automática de Oracle Solaris toma una instantánea y clona las zonas de zonepool y el entorno de inicio rpool si utiliza esta sintaxis:
# lucreate -n newBE |
Se crea el entorno de inicio newBE en rpool/ROOT/newBE. Si está activado, newBE proporciona acceso a los componentes de zonepool.
En el ejemplo anterior, si /zonepool/zones fuera un subdirectorio, y no un conjunto de datos independiente, Actualización automática los migraría como componentes de la agrupación raíz, rpool.
Información de actualización o migración de zonas con zonas para UFS y ZFS – Revise las siguientes consideraciones que pueden afectar a una migración o una actualización de un entorno ZFS y UFS:
Si ha configurado las zonas, tal y como se describe en Uso de Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas (Solaris 10 10/08) en la versión Solaris 10 10/08 y ha actualizado al menos a Solaris 10 5/09, debería poder migrar a un sistema de archivos raíz ZFS o utilizar Actualización automática de Oracle Solaris para actualizar al menos a la versión Solaris 10 5/09.
No cree raíces de zona en directorios anidados, por ejemplo, zones/zone1 y zones/zone1/zone2. De lo contrario, el montaje puede fallar en el momento del inicio.
Utilice este procedimiento después de haber realizado una instalación inicial de, al menos, la versión Solaris 10 5/09 para crear un sistema de archivos raíz ZFS. Utilice este procedimiento después de utilizar la función luupgrade para la actualización de un sistema de archivos raíz ZFS al menos a la versión Solaris 10 5/09. Se puede aplicar una actualización o un parche a un entorno de inicio ZFS que se cree mediante este procedimiento.
En los pasos que aparecen a continuación, el sistema Oracle Solaris 10 9/10 de ejemplo tiene un sistema de archivos raíz ZFS y un conjunto de datos raíz de zona en /rpool/zones. Se crea un entorno de inicio ZFS denominado zfs2BE al que se puede aplicar una actualización o un parche.
Revise los sistemas de archivos ZFS existentes.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.26G 59.7G 98K /rpool rpool/ROOT 4.64G 59.7G 21K legacy rpool/ROOT/zfsBE 4.64G 59.7G 4.64G / rpool/dump 1.00G 59.7G 1.00G - rpool/export 44K 59.7G 23K /export rpool/export/home 21K 59.7G 21K /export/home rpool/swap 1G 60.7G 16K - rpool/zones 633M 59.7G 633M /rpool/zones |
Asegúrese de que las zonas se hayan instalado e iniciado.
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 zfszone running /rpool/zones native shared |
Cree el entorno de inicio ZFS.
# lucreate -n zfs2BE Analyzing system configuration. No name for current boot environment. INFORMATION: The current boot environment is not named - assigning name <zfsBE>. Current boot environment is named <zfsBE>. Creating initial configuration for primary boot environment <zfsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. Creating configuration for boot environment <zfs2BE>. Source boot environment is <zfsBE>. Creating boot environment <zfs2BE>. Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>. Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>. Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>. Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>. Population of boot environment <zfs2BE> successful. Creation of boot environment <zfs2BE> successful. |
Active el entorno de inicio ZFS.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes yes yes no - zfs2BE yes no no yes - # luactivate zfs2BE A Live Upgrade Sync operation will be performed on startup of boot environment <zfs2BE>. . . . # init 6 |
Confirme que las zonas y los sistemas de archivos ZFS se creen en el nuevo entorno de inicio.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.38G 59.6G 98K /rpool rpool/ROOT 4.72G 59.6G 21K legacy rpool/ROOT/zfs2BE 4.72G 59.6G 4.64G / rpool/ROOT/zfs2BE@zfs2BE 74.0M - 4.64G - rpool/ROOT/zfsBE 5.45M 59.6G 4.64G /.alt.zfsBE rpool/dump 1.00G 59.6G 1.00G - rpool/export 44K 59.6G 23K /export rpool/export/home 21K 59.6G 21K /export/home rpool/swap 1G 60.6G 16K - rpool/zones 17.2M 59.6G 633M /rpool/zones rpool/zones-zfsBE 653M 59.6G 633M /rpool/zones-zfsBE rpool/zones-zfsBE@zfs2BE 19.9M - 633M - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - zfszone installed /rpool/zones native shared |
Utilice este procedimiento cuando deba aplicar parches o actualizaciones a un sistema de archivos raíz ZFS con raíces de zona en la versión Solaris 10 5/09. Las actualizaciones pueden consistir en una actualización del sistema o la aplicación de parches.
En los pasos siguientes, zfs2BE es el nombre de ejemplo del entorno de inicio al que se ha aplicado una actualización o parche.
Revise los sistemas de archivos ZFS existentes.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.38G 59.6G 100K /rpool rpool/ROOT 4.72G 59.6G 21K legacy rpool/ROOT/zfs2BE 4.72G 59.6G 4.64G / rpool/ROOT/zfs2BE@zfs2BE 75.0M - 4.64G - rpool/ROOT/zfsBE 5.46M 59.6G 4.64G / rpool/dump 1.00G 59.6G 1.00G - rpool/export 44K 59.6G 23K /export rpool/export/home 21K 59.6G 21K /export/home rpool/swap 1G 60.6G 16K - rpool/zones 22.9M 59.6G 637M /rpool/zones rpool/zones-zfsBE 653M 59.6G 633M /rpool/zones-zfsBE rpool/zones-zfsBE@zfs2BE 20.0M - 633M - |
Asegúrese de que las zonas se hayan instalado e iniciado.
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 5 zfszone running /rpool/zones native shared |
Cree el entorno de inicio ZFS al que aplicar actualizaciones o parches.
# lucreate -n zfs2BE Analyzing system configuration. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. Creating configuration for boot environment <zfs2BE>. Source boot environment is <zfsBE>. Creating boot environment <zfs2BE>. Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>. Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>. Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>. Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>. Creating snapshot for <rpool/zones> on <rpool/zones@zfs10092BE>. Creating clone for <rpool/zones@zfs2BE> on <rpool/zones-zfs2BE>. Population of boot environment <zfs2BE> successful. Creation of boot environment <zfs2BE> successful. |
Seleccione una de las opciones siguientes para actualizar el sistema o aplicar parches al nuevo entorno de inicio:
Actualice el sistema.
# luupgrade -u -n zfs2BE -s /net/install/export/s10up/latest |
La opción -s especifica la ubicación de un medio de instalación de Solaris.
Este proceso puede durar mucho tiempo.
Para obtener un ejemplo completo del proceso luupgrade, consulte el Ejemplo 5–6.
Aplique parches al nuevo entorno de inicio.
# luupgrade -t -n zfs2BE -t -s /patchdir patch-id-02 patch-id-04 |
Active el nuevo entorno de inicio.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes yes yes no - zfs2BE yes no no yes - # luactivate zfs2BE A Live Upgrade Sync operation will be performed on startup of boot environment <zfs2BE>. . . . |
Inicie desde el entorno de inicio recién activado.
# init 6 |
En este ejemplo, un entorno de inicio ZFS (zfsBE), creado en un sistema Solaris 10 10/09 con un sistema de archivos raíz ZFS y raíz de zona en una agrupación no raíz, se actualiza a la versión Oracle Solaris 10 9/10. Este proceso puede durar mucho tiempo. A continuación, el entorno de inicio actualizado (zfs2BE) se activa. Asegúrese de que las zonas se hayan instalado e iniciado antes de intentar la actualización.
En este ejemplo, la agrupación zonepool, el conjunto de datos /zonepool/zones, así como la zona zfszone se crean de este modo:
# zpool create zonepool mirror c2t1d0 c2t5d0 # zfs create zonepool/zones # chmod 700 zonepool/zones # zonecfg -z zfszone zfszone: No such zone configured Use 'create' to begin configuring a new zone. zonecfg:zfszone> create zonecfg:zfszone> set zonepath=/zonepool/zones zonecfg:zfszone> verify zonecfg:zfszone> exit # zoneadm -z zfszone install cannot create ZFS dataset zonepool/zones: dataset already exists Preparing to install zone <zfszone>. Creating list of files to copy from the global zone. Copying <8960> files to the zone. . . . |
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 zfszone running /zonepool/zones native shared # lucreate -n zfsBE . . . # luupgrade -u -n zfsBE -s /net/install/export/s10up/latest 40410 blocks miniroot filesystem is <lofs> Mounting miniroot at </net/system/export/s10up/latest/Solaris_10/Tools/Boot> Validating the contents of the media </net/system/export/s10up/latest>. The media is a standard Solaris media. The media contains an operating system upgrade image. The media contains <Solaris> version <10>. Constructing upgrade profile to use. Locating the operating system upgrade program. Checking for existence of previously scheduled Live Upgrade requests. Creating upgrade profile for BE <zfsBE>. Determining packages to install or upgrade for BE <zfsBE>. Performing the operating system upgrade of the BE <zfsBE>. CAUTION: Interrupting this process may leave the boot environment unstable or unbootable. Upgrading Solaris: 100% completed Installation of the packages from this media is complete. Updating package information on boot environment <zfsBE>. Package information successfully updated on boot environment <zfsBE>. Adding operating system patches to the BE <zfsBE>. The operating system patch installation is complete. INFORMATION: The file </var/sadm/system/logs/upgrade_log> on boot environment <zfsBE> contains a log of the upgrade operation. INFORMATION: The file </var/sadm/system/data/upgrade_cleanup> on boot environment <zfsBE> contains a log of cleanup operations required. INFORMATION: Review the files listed above. Remember that all of the files are located on boot environment <zfsBE>. Before you activate boot environment <zfsBE>, determine if any additional system maintenance is required or if additional media of the software distribution must be installed. The Solaris upgrade of the boot environment <zfsBE> is complete. Installing failsafe Failsafe install is complete. # luactivate zfsBE # init 6 # lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes no no yes - zfs2BE yes yes yes no - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - zfszone installed /zonepool/zones native shared |
Utilice este procedimiento para migrar un sistema con un sistema de archivos raíz UFS y una raíz de zona al menos a la versión Solaris 10 5/09. A continuación, utilice Actualización automática de Oracle Solaris para crear un entorno de inicio ZFS.
En los pasos que aparecen a continuación, el nombre del entorno de inicio UFS de ejemplo es c0t1d0s0, la raíz de zona UFS es zonepool/zfszone y el entorno de inicio raíz es zfsBE.
Actualice el sistema a la versión Solaris 10 5/09 si se ejecuta una versión de Solaris 10 anterior.
Para obtener información sobre cómo actualizar un sistema que ejecuta la versión Solaris 10, consulte Guía de instalación de Oracle Solaris 10 9/10: Actualización automática de Solaris y planificación de la actualización.
Cree la agrupación raíz.
Si necesita información sobre los requisitos de agrupaciones raíz, consulte Requisitos de instalación de Oracle Solaris y de Actualización automática de Oracle Solaris para compatibilidad con ZFS.
Confirme que se hayan iniciado las zonas desde el entorno de inicio UFS.
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 zfszone running /zonepool/zones native shared |
Cree el nuevo entorno de inicio ZFS.
# lucreate -c c1t1d0s0 -n zfsBE -p rpool |
Este comando establece conjuntos de datos en la agrupación raíz del nuevo entorno de inicio y copia el entorno de inicio actual (zonas incluidas) en esos conjuntos de datos.
Active el nuevo entorno de inicio ZFS.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- c1t1d0s0 yes no no yes - zfsBE yes yes yes no - # luactivate zfsBE A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>. . . . |
Reinicie el sistema.
# init 6 |
Confirme que las zonas y los sistemas de archivos ZFS se creen en el nuevo entorno de inicio.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 6.17G 60.8G 98K /rpool rpool/ROOT 4.67G 60.8G 21K /rpool/ROOT rpool/ROOT/zfsBE 4.67G 60.8G 4.67G / rpool/dump 1.00G 60.8G 1.00G - rpool/swap 517M 61.3G 16K - zonepool 634M 7.62G 24K /zonepool zonepool/zones 270K 7.62G 633M /zonepool/zones zonepool/zones-c1t1d0s0 634M 7.62G 633M /zonepool/zones-c1t1d0s0 zonepool/zones-c1t1d0s0@zfsBE 262K - 633M - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - zfszone installed /zonepool/zones native shared |
En este ejemplo, un sistema Oracle Solaris 10 9/10 con un sistema de archivos raíz UFS y una raíz de zona (/uzone/ufszone), así como una agrupación que no es raíz ZFS (pool) y una raíz de zona (/pool/zfszone) se migra a un sistema de archivos raíz ZFS. Asegúrese de que la agrupación raíz ZFS se haya creado y de que las zonas se hayan instalado e iniciado antes de intentar la migración.
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 ufszone running /uzone/ufszone native shared 3 zfszone running /pool/zones/zfszone native shared |
# lucreate -c ufsBE -n zfsBE -p rpool Analyzing system configuration. No name for current boot environment. Current boot environment is named <zfsBE>. Creating initial configuration for primary boot environment <zfsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <ufsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <ufsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <zfsBE>. Source boot environment is <ufsBE>. Creating boot environment <zfsBE>. Creating file systems on boot environment <zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>. Populating file systems on boot environment <zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Copying root of zone <ufszone> to </.alt.tmp.b-EYd.mnt/uzone/ufszone>. Creating snapshot for <pool/zones/zfszone> on <pool/zones/zfszone@zfsBE>. Creating clone for <pool/zones/zfszone@zfsBE> on <pool/zones/zfszone-zfsBE>. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </rpool/ROOT>. Creating compare database for file system </>. Updating compare databases on boot environment <zfsBE>. Making boot environment <zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-DLd.mnt updating /.alt.tmp.b-DLd.mnt/platform/sun4u/boot_archive Population of boot environment <zfsBE> successful. Creation of boot environment <zfsBE> successful. # lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- ufsBE yes yes yes no - zfsBE yes no no yes - # luactivate zfsBE . . . # init 6 . . . # zfs list NAME USED AVAIL REFER MOUNTPOINT pool 628M 66.3G 19K /pool pool/zones 628M 66.3G 20K /pool/zones pool/zones/zfszone 75.5K 66.3G 627M /pool/zones/zfszone pool/zones/zfszone-ufsBE 628M 66.3G 627M /pool/zones/zfszone-ufsBE pool/zones/zfszone-ufsBE@zfsBE 98K - 627M - rpool 7.76G 59.2G 95K /rpool rpool/ROOT 5.25G 59.2G 18K /rpool/ROOT rpool/ROOT/zfsBE 5.25G 59.2G 5.25G / rpool/dump 2.00G 59.2G 2.00G - rpool/swap 517M 59.7G 16K - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - ufszone installed /uzone/ufszone native shared - zfszone installed /pool/zones/zfszone native shared |
Durante la instalación inicial de un sistema operativo Solaris o después de la ejecución de Actualización automática de Oracle Solaris desde un sistema de archivos UFS, se crea un área de intercambio en un volumen ZFS de la agrupación raíz ZFS. Por ejemplo:
# swap -l swapfile dev swaplo blocks free /dev/zvol/dsk/rpool/swap 256,1 16 4194288 4194288 |
Durante la instalación inicial de un sistema operativo Solaris o la ejecución de Actualización automática de Oracle Solaris desde un sistema de archivos UFS, se crea un dispositivo de volcado en un volumen ZFS de la agrupación raíz ZFS. En general, un dispositivo de volcado no requiere administración porque se configura automáticamente en el momento de la instalación. Por ejemplo:
# dumpadm Dump content: kernel pages Dump device: /dev/zvol/dsk/rpool/dump (dedicated) Savecore directory: /var/crash/t2000 Savecore enabled: yes Save compressed: on |
Si inhabilita y elimina el dispositivo de volcado, tendrá que habilitarlo con el comando dumpadm después de que se haya vuelto a crear. En la mayoría de los casos, sólo tendrá que ajustar el tamaño del dispositivo de volcado mediante el comando zfs.
Para obtener información sobre el tamaño de los volúmenes de intercambio y volcado creados por los programas de instalación, consulte Requisitos de instalación de Oracle Solaris y de Actualización automática de Oracle Solaris para compatibilidad con ZFS.
Tanto el tamaño del volumen de intercambio como el tamaño del volumen de volcado se pueden ajustar durante y después de la instalación. Para obtener más información, consulte Ajuste del tamaño de los dispositivos de intercambio y volcado ZFS.
Al trabajar con dispositivos de intercambio y volcado ZFS, debe tener en cuenta los problemas siguientes:
Para el área de intercambio y los dispositivos de volcado deben utilizarse volúmenes ZFS distintos.
En la actualidad, no es posible utilizar un archivo de intercambio en un sistema de archivos ZFS.
Si tiene que cambiar el área de intercambio o el dispositivo de volcado después de instalar o actualizar el sistema, utilice los comandos swap y dumpadm como en las versiones anteriores de Solaris. Si desea más información, consulte el Capítulo 20, Configuring Additional Swap Space (Tasks) de System Administration Guide: Devices and File Systems and Capítulo 17, Managing System Crash Information (Tasks) de System Administration Guide: Advanced Administration.
Consulte las secciones siguientes para obtener más información:
Debido a las diferencias en la forma en que una instalación raíz ZFS determina el tamaño de los dispositivos de intercambio y volcado, podría ser que tuviera que ajustar el tamaño de dichos dispositivos antes, durante o después de la instalación.
Durante una instalación inicial puede ajustar el tamaño de los volúmenes de intercambio y volcado. Para obtener más información, consulte el Ejemplo 5–1.
Antes de ejecutar Actualización automática de Oracle Solaris puede crear y establecer el tamaño de los volúmenes de intercambio y volcado. Por ejemplo:
Cree la agrupación de almacenamiento.
# zpool create rpool mirror c0t0d0s0 c0t1d0s0 |
Cree el dispositivo de volcado.
# zfs create -V 2G rpool/dump |
Habilite el dispositivo de volcado.
# dumpadm -d /dev/zvol/dsk/rpool/dump Dump content: kernel pages Dump device: /dev/zvol/dsk/rpool/dump (dedicated) Savecore directory: /var/crash/t2000 Savecore enabled: yes Save compressed: on |
Seleccione una de las opciones siguientes para crear el área de intercambio:
SPARC: cree su área de intercambio. Establezca el tamaño de bloque en 8 Kbytes.
# zfs create -V 2G -b 8k rpool/swap |
x86: cree su área de intercambio. Establezca el tamaño de bloque en 4 Kbytes.
# zfs create -V 2G -b 4k rpool/swap |
Se debe habilitar el área de intercambio cuando se agrega o cambia un nuevo dispositivo de intercambio.
Agregue una entrada para el volumen de intercambio en el archivo /etc/vfstab.
Actualización automática de Oracle Solaris no cambia el tamaño de volúmenes de intercambio y volcado ya establecidos.
Puede volver a configurar la propiedad volsize del dispositivo de volcado tras haber instalado un sistema. Por ejemplo:
# zfs set volsize=2G rpool/dump # zfs get volsize rpool/dump NAME PROPERTY VALUE SOURCE rpool/dump volsize 2G - |
Puede cambiar el tamaño del volumen de intercambio pero hasta que CR 6765386 esté integrado, es mejor quitar el dispositivo de intercambio en primer lugar. A continuación, vuelva a crearlo. Por ejemplo:
# swap -d /dev/zvol/dsk/rpool/swap # zfs volsize=2G rpool/swap # swap -a /dev/zvol/dsk/rpool/swap |
Para obtener información sobre cómo quitar un dispositivo de intercambio en un sistema activo, consulte este sitio:
http://www.solarisinternals.com/wiki/index.php/ZFS_Troubleshooting_Guide
Puede ajustar el tamaño de los volúmenes de intercambio y volcado de un perfil de JumpStart mediante una sintaxis de perfil similar a la siguiente:
install_type initial_install cluster SUNWCXall pool rpool 16g 2g 2g c0t0d0s0 |
En este perfil, dos entradas 2g establecen el tamaño del volumen de intercambio y volcado en 2 GB cada uno.
Si necesita más espacio de intercambio en un sistema ya instalado, simplemente agregue otro volumen de intercambio. Por ejemplo:
# zfs create -V 2G rpool/swap2 |
A continuación, active el nuevo volumen de intercambio. Por ejemplo:
# swap -a /dev/zvol/dsk/rpool/swap2 # swap -l swapfile dev swaplo blocks free /dev/zvol/dsk/rpool/swap 256,1 16 1058800 1058800 /dev/zvol/dsk/rpool/swap2 256,3 16 4194288 4194288 |
Por último, agregue una entrada para el segundo volumen de intercambio en el archivo /etc/vfstab .
Revise los siguientes elementos si tiene problemas al capturar un volcado de bloqueo del sistema o al cambiar el tamaño del dispositivo de volcado.
Si no se creó automáticamente un volcado de bloqueo, puede utilizar el comando savecore para guardar el volcado de bloqueo.
Un volumen de volcado se crea automáticamente cuando se instala inicialmente un sistema de archivos raíz ZFS o se migra a un sistema de archivos ZFS. En la mayoría de los casos, sólo será necesario ajustar el tamaño del volumen de volcado si el tamaño del volumen de volcado predeterminado es demasiado pequeño. Por ejemplo, en un sistema de mucha memoria, el tamaño del volumen de volcado se aumenta a 40 GB como sigue:
# zfs set volsize=40G rpool/dump |
El cambio de tamaño de un volumen de volcado puede ser un proceso largo.
Si, por cualquier razón, tiene que habilitar un dispositivo de volcado tras crear un dispositivo de volcado manualmente, utilice sintaxis similar a la siguiente:
# dumpadm -d /dev/zvol/dsk/rpool/dump Dump content: kernel pages Dump device: /dev/zvol/dsk/rpool/dump (dedicated) Savecore directory: /var/crash/t2000 Savecore enabled: yes |
Un sistema con una memoria de 128 GB o mayor necesitará un dispositivo de volcado mayor que el dispositivo de volcado que se crea de forma predeterminada. Si el dispositivo de volcado es demasiado pequeño para capturar un volcado de bloqueo existente, se muestra un mensaje parecido al siguiente:
# dumpadm -d /dev/zvol/dsk/rpool/dump dumpadm: dump device /dev/zvol/dsk/rpool/dump is too small to hold a system dump dump size 36255432704 bytes, device size 34359738368 bytes |
Para obtener información sobre el cambio de tamaño de los dispositivos de intercambio y volcado, consulte Planning for Swap Space de System Administration Guide: Devices and File Systems.
No se puede agregar actualmente un dispositivo de volcado a una agrupación con varios dispositivos de nivel superior. Verá un mensaje similar al siguiente:
# dumpadm -d /dev/zvol/dsk/datapool/dump dump is not supported on device '/dev/zvol/dsk/datapool/dump': 'datapool' has multiple top level vdevs |
Agregue el dispositivo de volcado a la agrupación raíz, que no puede tener varios dispositivos de nivel superior.
Tanto los sistemas basados en SPARC como en x86 utilizan el nuevo estilo de inicio con un archivo de almacenamiento de inicio, que consiste en una imagen de sistema de archivos con los archivos que se necesitan para iniciar. Si se inicia un sistema desde un sistema de archivos raíz ZFS, los nombres de ruta del archivo de almacenamiento de inicio y del archivo de núcleo se resuelven en el sistema de archivos raíz que se selecciona para iniciar.
Cuando se inicia un sistema para la instalación, se usa un disco RAM para el sistema de archivos raíz durante todo el proceso de instalación.
El inicio desde un sistema de archivos ZFS es diferente de un sistema de archivos UFS porque, con ZFS, el especificador de dispositivos de inicio identifica una agrupación de almacenamiento, no un solo sistema de archivos raíz. Una agrupación de almacenamiento puede contener varios conjuntos de datos que se pueden iniciar o sistemas de archivos raíz ZFS. Si se inicia desde ZFS, debe especificar un dispositivo de inicio y un sistema de archivos raíz en la agrupación identificada por el dispositivo de inicio.
De forma predeterminada, el conjunto de datos seleccionado para iniciar es el que queda identificado por la propiedad bootfs de la agrupación. Esta selección predeterminada se puede modificar optando por un conjunto de datos alternativo que se puede iniciar en el comando boot -Z.
Puede crear una agrupación raíz ZFS reflejada al instalar el sistema; también puede conectar un disco para crear una agrupación raíz ZFS reflejada tras la instalación. Para más información, consulte:
Instalación de un sistema de archivos raíz ZFS (instalación inicial)
Cómo crear una agrupación raíz reflejada (posterior a la instalación)
Revise los siguientes problemas conocidos relativos a agrupaciones raíz ZFS reflejadas:
CR 6668666: debe instalar la información de inicio en los discos conectados adicionalmente mediante los comandos installboot o installgrub si desea habilitar el inicio en los otros discos del reflejo. Si crea una agrupación raíz ZFS reflejada con el método de instalación inicial, este paso no es necesario. Por ejemplo, si c0t1d0s0 era el segundo disco agregado al reflejo, la sintaxis del comando installboot o installgrub sería la siguiente:
SPARC:
sparc# installboot -F zfs /usr/platform/`uname -i`/lib/fs/zfs/bootblk /dev/rdsk/c0t1d0s0 |
x86:
x86# installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c0t1d0s0 |
Puede iniciar desde distintos dispositivos en una agrupación raíz ZFS reflejada. Según la configuración de hardware, quizá deba actualizar la PROM o el BIOS para especificar otro dispositivo de inicio.
Por ejemplo, puede iniciar desde cualquier disco (c1t0d0s0 o c1t1d0s0) de la siguiente agrupación.
# zpool status pool: rpool state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c1t0d0s0 ONLINE 0 0 0 c1t1d0s0 ONLINE 0 0 0 |
SPARC: introduzca el disco alternativo en el indicador Aceptar.
ok boot /pci@7c0/pci@0/pci@1/pci@0,2/LSILogic,sas@2/disk@0 |
Tras reiniciar el sistema, confirme el dispositivo de inicio activo. Por ejemplo:
SPARC# prtconf -vp | grep bootpath bootpath: '/pci@7c0/pci@0/pci@1/pci@0,2/LSILogic,sas@2/disk@0,0:a' |
x86: seleccione un disco alternativo en la agrupación raíz ZFS reflejada en el menú del BIOS pertinente.
A continuación, use una sintaxis similar a la siguiente para confirmar que ha iniciado desde el disco alternativo:
x86# prtconf -v|sed -n '/bootpath/,/value/p' name='bootpath' type=string items=1 value='/pci@0,0/pci8086,25f8@4/pci108e,286@0/disk@0,0:a' |
En un sistema basado en SPARC con varios entornos de inicio ZFS, puede iniciar desde cualquier entorno de inicio mediante el comando luactivate.
Durante el proceso de instalación del sistema operativo Solaris y la ejecución de Actualización automática de Oracle Solaris, el sistema de archivos raíz ZFS se designa automáticamente mediante la propiedad bootfs.
En una agrupación puede haber varios conjuntos de datos que se pueden iniciar. De forma predeterminada, la entrada del conjunto de datos que se puede iniciar del archivo /nombre_agrupación/boot/menu.lst se identifica mediante la propiedad bootfs de la agrupación. Ahora bien, una entrada de menu.lstpuede contener un comando bootfs, que especifica un conjunto de datos alternativo de la agrupación. De esta manera, el archivo menu.lst puede contener entradas de varios sistemas de archivos raíz dentro de la agrupación.
Si un sistema se instala con un sistema de archivos raíz ZFS o se migra a un sistema de archivos raíz ZFS, al archivo menu.lst se le agrega una entrada similar a la siguiente:
title zfsBE bootfs rpool/ROOT/zfsBE title zfs2BE bootfs rpool/ROOT/zfs2BE |
Al crearse un entorno de inicio, se actualiza automáticamente el archivo menu.lst.
En un sistema basado en SPARC hay dos nuevas opciones de inicio:
Después de activar el entorno de inicio, puede utilizar el comando de inicio -L para obtener una lista de conjuntos de datos que se pueden iniciar en una agrupación ZFS. A continuación, puede seleccionar en la lista uno de los conjuntos de datos que se pueden iniciar. Se muestran instrucciones pormenorizadas para iniciar dicho conjunto de datos. El conjunto de datos seleccionado se puede iniciar siguiendo esas instrucciones.
Puede utilizar el comando de inicio -Z conjunto_datos para iniciar un determinado conjunto de datos ZFS.
Si dispone de varios entornos de inicio ZFS en una agrupación de almacenamiento ZFS en el dispositivo de inicio del sistema, puede utilizar el comando luactivate para designar un entorno de inicio predeterminado.
Por ejemplo, los siguientes entornos de inicio ZFS están disponibles como se describe en la salida de lustatus:
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes no no yes - zfs2BE yes yes yes no - |
Si tiene varios entornos de inicio ZFS en un sistema basado en SPARC, puede utilizar el comando boot -L para iniciar desde un entorno de inicio que sea diferente del predeterminado. Sin embargo, un entorno de inicio que se inicia desde una sesión boot -L no se restablece como el predeterminado, ni se actualiza la propiedad bootfs. Si desea que el entorno de inicio que se inicia desde una sesión boot -L sea el predeterminado, debe activarlo con el comando luactivate.
Por ejemplo:
ok boot -L Rebooting with command: boot -L Boot device: /pci@7c0/pci@0/pci@1/pci@0,2/LSILogic,sas@2/disk@0 File and args: -L 1 zfsBE 2 zfs2BE Select environment to boot: [ 1 - 2 ]: 1 To boot the selected entry, invoke: boot [<root-device>] -Z rpool/ROOT/zfsBE Program terminated ok boot -Z rpool/ROOT/zfsBE |
En un sistema basado en SPARC, puede iniciar desde el archivo de almacenamiento a prueba de fallos ubicado en /platform/`uname -i`/failsafe como se muestra a continuación:
ok boot -F failsafe |
Para iniciar un archivo de almacenamiento a prueba de fallos desde un determinado conjunto de datos ZFS que se puede iniciar, utilice una sintaxis similar a la siguiente:
ok boot -Z rpool/ROOT/zfsBE -F failsafe |
Las entradas siguientes se agregan al archivo /pool-name /boot/grub/menu.lst durante el proceso de instalación o al ejecutarse Actualización automática de Oracle Solaris para iniciar ZFS de forma automática:
title Solaris 10 9/10 X86 findroot (rootfs0,0,a) kernel$ /platform/i86pc/multiboot -B $ZFS-BOOTFS module /platform/i86pc/boot_archive title Solaris failsafe findroot (rootfs0,0,a) kernel /boot/multiboot kernel/unix -s -B console=ttya module /boot/x86.miniroot-safe |
Si el dispositivo que GRUB identifica como dispositivo de inicio contiene una agrupación de almacenamiento ZFS, el archivo menu.lst se utiliza para crear el menú GRUB.
En el caso de un sistema basado en x86 con varios entornos de inicio ZFS, el entorno de inicio se puede seleccionar en el menú GRUB. Si el sistema de archivos raíz correspondiente a esta entrada de menú es un conjunto de datos ZFS, se agrega la opción siguiente:
-B $ZFS-BOOTFS |
Si se inicia un sistema desde un sistema de archivos ZFS, el parámetro -B $ZFS-BOOTFS especifica el dispositivo raíz en la línea kernel o module en la entrada del menú GRUB. El GRUB pasa al núcleo el valor de este parámetro, parecido a todos los parámetros que especifica la opción -B. Por ejemplo:
title Solaris 10 9/10 X86 findroot (rootfs0,0,a) kernel$ /platform/i86pc/multiboot -B $ZFS-BOOTFS module /platform/i86pc/boot_archive title Solaris failsafe findroot (rootfs0,0,a) kernel /boot/multiboot kernel/unix -s -B console=ttya module /boot/x86.miniroot-safe |
El archivo de almacenamiento a prueba de fallos de x86 es /boot/x86.miniroot-safe y se puede iniciar seleccionando la entrada a prueba de fallos de Solaris en el menú GRUB. Por ejemplo:
title Solaris failsafe findroot (rootfs0,0,a) kernel /boot/multiboot kernel/unix -s -B console=ttya module /boot/x86.miniroot-safe |
El uso del comando luactivate es la mejor forma de cambiar el entorno de inicio activo. Si el entorno de inicio activo no puede iniciarse, debido a un parche incorrecto o a un error de configuración, la única forma de iniciar otro entorno de inicio es seleccionar dicho entorno en el momento de iniciar. Puede seleccionar un entorno de inicio alternativo en el menú GRUB en un sistema basado en x86, o iniciarlo explícitamente desde la PROM de un sistema basado en SPARC.
Debido a un error en Actualización automática de Oracle Solaris en la versión Solaris 10 10/08, el inicio del entorno de inicio no activo podría fallar porque un conjunto de datos ZFS o el conjunto de datos ZFS de una zona del entorno de inicio tiene un punto de montaje no válido. Ese mismo error impide el montaje del entorno de inicio si tiene un conjunto de datos /var aparte.
Si el conjunto de datos de una zona tiene un punto de montaje no válido, éste se puede corregir si se realizan los siguientes pasos.
Inicie el sistema desde un archivo de almacenamiento a prueba de fallos.
Importe la agrupación.
Por ejemplo:
# zpool import rpool |
Busque puntos de montaje temporales incorrectos.
Por ejemplo:
# zfs list -r -o name,mountpoint rpool/ROOT/s10u6 NAME MOUNTPOINT rpool/ROOT/s10u6 /.alt.tmp.b-VP.mnt/ rpool/ROOT/s10u6/zones /.alt.tmp.b-VP.mnt//zones rpool/ROOT/s10u6/zones/zonerootA /.alt.tmp.b-VP.mnt/zones/zonerootA |
El punto de montaje del entorno de inicio raíz (rpool/ROOT/s10u6) debe ser /.
Si falla el inicio debido a problemas de montaje de /var, busque un punto de montaje temporal similar incorrecto para el conjunto de datos /var.
Restablezca los puntos de montaje del entorno de inicio ZFS y sus conjuntos de datos.
Por ejemplo:
# zfs inherit -r mountpoint rpool/ROOT/s10u6 # zfs set mountpoint=/ rpool/ROOT/s10u6 |
Reinicie el sistema.
Si se presenta la opción para iniciar un determinado entorno de inicio, en el menú GRUB o el indicador de OpenBoot PROM, seleccione el entorno de inicio cuyos puntos de montaje se han acabado de corregir.
Utilice el procedimiento siguiente si necesita iniciar el sistema para recuperarse de la pérdida de una contraseña raíz o de un problema similar.
Dependiendo de la gravedad del error, tendrá que iniciar en modo a prueba de fallos o desde un medio alternativo. En general, puede iniciar en modo a prueba de fallos para recuperar una contraseña raíz perdida o desconocida.
Si necesita recuperar una agrupación raíz o una instantánea de agrupación raíz, consulte Recuperación de la agrupación raíz ZFS o las instantáneas de la agrupación raíz.
Inicie en modo a prueba de fallos.
En un sistema SPARC:
ok boot -F failsafe |
En un sistema x86, seleccione el modo a prueba de fallos en el indicador de GRUB.
Monte el entorno de inicio ZFS en /a cuando se le solicite:
. . . ROOT/zfsBE was found on rpool. Do you wish to have it mounted read-write on /a? [y,n,?] y mounting rpool on /a Starting shell. |
Cambie al directorio /a/etc.
# cd /a/etc |
Si es necesario, establezca el tipo TERM.
# TERM=vt100 # export TERM |
Corrija el archivo passwd o shadow.
# vi shadow |
Reinicie el sistema.
# init 6 |
Si un problema impide que el sistema se inicie correctamente, o se produce algún otro problema grave, deberá iniciar desde un servidor de instalación en red o desde un CD de instalación de Solaris, importar la agrupación raíz, montar el entorno de inicio ZFS e intentar resolver el problema.
Inicie desde un CD de instalación o desde la red.
SPARC:
ok boot cdrom -s ok boot net -s |
Si no utiliza la opción -s, deberá salir del programa de instalación.
x86: seleccione la opción de inicio de red o de inicio desde el CD local.
Importe la agrupación raíz y especifique un punto de montaje alternativo. Por ejemplo:
# zpool import -R /a rpool |
Monte el entorno de inicio ZFS. Por ejemplo:
# zfs mount rpool/ROOT/zfsBE |
Acceda al contenido ZFS desde el directorio /a.
# cd /a |
Reinicie el sistema.
# init 6 |
Las siguientes secciones describen cómo realizar las siguientes tareas:
Cómo volver a crear una agrupación raíz ZFS y restaurar instantáneas de agrupaciones raíz
Cómo deshacer instantáneas de agrupaciones raíz a partir de un inicio a prueba de fallos
Es posible que necesite sustituir un disco en la agrupación raíz, por los siguientes motivos:
La agrupación raíz es demasiado pequeña y desea sustituir un disco pequeño por uno mayor.
Un disco de la agrupación raíz no funciona correctamente. En una agrupación no redundante, si el disco falla y el sistema no se inicia, deberá iniciar desde un medio alternativo, como un CD o la red, antes de sustituir el disco de la agrupación raíz.
En una configuración de agrupación raíz reflejada, puede intentar una sustitución de discos sin iniciar desde un soporte alternativo. Puede sustituir un disco averiado mediante el comando zpool replace. O, si tiene un disco adicional, puede utilizar el comando zpool attach. Consulte el procedimiento de esta sección para ver un ejemplo de cómo conectar un disco adicional y la desconexión de un disco de agrupación raíz.
Algunos dispositivos de hardware requieren que se desconecte un disco y se desconfigure antes de intentar la operación zpool replace para sustituir un disco averiado. Por ejemplo:
# zpool offline rpool c1t0d0s0 # cfgadm -c unconfigure c1::dsk/c1t0d0 <Physically remove failed disk c1t0d0> <Physically insert replacement disk c1t0d0> # cfgadm -c configure c1::dsk/c1t0d0 # zpool replace rpool c1t0d0s0 # zpool online rpool c1t0d0s0 # zpool status rpool <Let disk resilver before installing the boot blocks> SPARC# installboot -F zfs /usr/platform/`uname -i`/lib/fs/zfs/bootblk /dev/rdsk/c1t0d0s0 x86# installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c1t9d0s0 |
En algunos dispositivos de hardware, no es necesario que el disco de sustitución esté conectado ni reconfigurarlo después de insertarlo.
Debe identificar los nombres de ruta del dispositivo de inicio de los discos nuevo y actual para poder probar el inicio desde el disco de sustitución y también iniciar manualmente desde el disco existente, si el disco de sustitución falla. En el ejemplo que aparece en el siguiente procedimiento, el nombre de la ruta del disco de agrupación raíz actual es (c1t10d0s0):
/pci@8,700000/pci@3/scsi@5/sd@a,0 |
El nombre de ruta del disco de inicio de sustitución es (c1t9d0s0):
/pci@8,700000/pci@3/scsi@5/sd@9,0 |
Conecte físicamente el disco de sustitución (o nuevo).
Confirme que el disco nuevo tiene una etiqueta SMI y un segmento 0.
Para obtener información sobre el reetiquetado de un disco que está diseñado para la agrupación raíz, consulte el sitio siguiente:
http://www.solarisinternals.com/wiki/index.php/ZFS_Troubleshooting_Guide
Conecte el nuevo disco a la agrupación raíz.
Por ejemplo:
# zpool attach rpool c1t10d0s0 c1t9d0s0 |
Confirme el estado de la agrupación raíz.
Por ejemplo:
# zpool status rpool pool: rpool state: ONLINE status: One or more devices is currently being resilvered. The pool will continue to function, possibly in a degraded state. action: Wait for the resilver to complete. scrub: resilver in progress, 25.47% done, 0h4m to go config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c1t10d0s0 ONLINE 0 0 0 c1t9d0s0 ONLINE 0 0 0 errors: No known data errors |
Cuando se haya completado la creación, aplique los bloques de inicio al nuevo disco.
Utilizando una sintaxis similar a la siguiente:
SPARC:
# installboot -F zfs /usr/platform/`uname -i`/lib/fs/zfs/bootblk /dev/rdsk/c1t9d0s0 |
x86:
# installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c1t9d0s0 |
Compruebe que puede iniciar desde el nuevo disco.
Por ejemplo, en un sistema basado en SPARC, deberá usar una sintaxis similar a la siguiente:
ok boot /pci@8,700000/pci@3/scsi@5/sd@9,0 |
Si el sistema se inicia desde el nuevo disco, desconecte el disco antiguo.
Por ejemplo:
# zpool detach rpool c1t10d0s0 |
Configure el sistema para que se inicie automáticamente desde el nuevo disco, ya sea mediante el comando eeprom, el comando setenv desde la PROM de inicio de SPARC, o bien vuelva a configurar el BIOS del equipo.
Puede crear instantáneas de la agrupación raíz para las recuperaciones. La forma más recomendable de crear instantáneas de agrupaciones raíz es realizar una instantánea recursiva de la agrupación raíz.
El procedimiento siguiente crea una instantánea de agrupación raíz recursiva y almacena la instantánea como un archivo en una agrupación en un sistema remoto. Si una agrupación raíz falla, el conjunto de datos remoto se puede montar mediante NFS y el archivo de instantánea se puede recibir en la agrupación que se ha vuelto a crear. O bien puede almacenar instantáneas de agrupaciones raíz como las instantáneas reales en una agrupación de un sistema remoto. Enviar y recibir las instantáneas desde un sistema remoto es un poco más complicado porque se debe configurar ssh o utilizar rsh mientras el sistema que hay que reparar se inicia desde la miniraíz del sistema operativo Solaris.
Para obtener información sobre el almacenamiento y la recuperación de forma remota de instantáneas de agrupación raíz, así como la información más actualizada sobre la recuperación de agrupaciones raíz, vaya a este sitio:
http://www.solarisinternals.com/wiki/index.php/ZFS_Troubleshooting_Guide
La validación de instantáneas almacenadas remotamente como archivos o instantáneas es un paso importante en la recuperación de una agrupación raíz. Con cualquiera de estos métodos, las instantáneas se deben volver a crear de forma rutinaria, como, por ejemplo, cuando la configuración de la agrupación cambia o cuando se actualiza el sistema operativo Solaris.
En el procedimiento siguiente, el sistema se inicia desde el entorno de inicio zfsBE.
Cree una agrupación y un sistema de archivos en un sistema remoto para almacenar las instantáneas.
Por ejemplo:
remote# zfs create rpool/snaps |
Comparta el sistema de archivos con el sistema local.
Por ejemplo:
remote# zfs set sharenfs='rw=local-system,root=local-system' rpool/snaps # share -@rpool/snaps /rpool/snaps sec=sys,rw=local-system,root=local-system "" |
Cree una instantánea recursiva de la agrupación raíz.
local# zfs snapshot -r rpool@0804 local# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 6.17G 60.8G 98K /rpool rpool@0804 0 - 98K - rpool/ROOT 4.67G 60.8G 21K /rpool/ROOT rpool/ROOT@0804 0 - 21K - rpool/ROOT/zfsBE 4.67G 60.8G 4.67G / rpool/ROOT/zfsBE@0804 386K - 4.67G - rpool/dump 1.00G 60.8G 1.00G - rpool/dump@0804 0 - 1.00G - rpool/swap 517M 61.3G 16K - rpool/swap@0804 0 - 16K - |
Envíe las instantáneas de la agrupación raíz al sistema remoto.
Por ejemplo:
local# zfs send -Rv rpool@0804 > /net/remote-system/rpool/snaps/rpool.0804 sending from @ to rpool@0804 sending from @ to rpool/swap@0804 sending from @ to rpool/ROOT@0804 sending from @ to rpool/ROOT/zfsBE@0804 sending from @ to rpool/dump@0804 |
En este procedimiento, suponga las siguientes condiciones:
La agrupación raíz ZFS no se puede recuperar.
Las instantáneas de las agrupaciones raíz ZFS se almacenan en un sistema remoto y se comparten a través de NFS.
Todos los pasos se llevan a cabo en el sistema local.
Efectúe el inicio desde el CD/DVD o desde la red.
SPARC: seleccione uno de los siguientes métodos de inicio:
ok boot net -s ok boot cdrom -s |
Si no utiliza la opción -s, deberá salir del programa de instalación.
x86: seleccione la opción para iniciar desde el DVD o desde la red. A continuación, salga del programa de instalación.
Monte el conjunto de datos remoto de instantáneas.
Por ejemplo:
# mount -F nfs remote-system:/rpool/snaps /mnt |
Si los servicios de red no están configurados, es posible que deba especificar la dirección IP del sistema remoto.
Si se reemplaza el disco de la agrupación raíz y no contiene una etiqueta de disco que sea utilizable por ZFS, deberá etiquetar de nuevo el disco.
Para obtener más información sobre cómo volver a etiquetar el disco, consulte el sitio siguiente:
http://www.solarisinternals.com/wiki/index.php/ZFS_Troubleshooting_Guide
Vuelva a crear la agrupación raíz.
Por ejemplo:
# zpool create -f -o failmode=continue -R /a -m legacy -o cachefile= /etc/zfs/zpool.cache rpool c1t1d0s0 |
Restaure las instantáneas de agrupaciones raíz.
Este paso puede tardar algo. Por ejemplo:
# cat /mnt/rpool.0804 | zfs receive -Fdu rpool |
El uso de la opción -u significa que el archivo de almacenamiento restaurado no está montado cuando se completa la operación zfs receive.
Compruebe que los conjuntos de datos de agrupaciones raíz se hayan restaurado.
Por ejemplo:
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 6.17G 60.8G 98K /a/rpool rpool@0804 0 - 98K - rpool/ROOT 4.67G 60.8G 21K /legacy rpool/ROOT@0804 0 - 21K - rpool/ROOT/zfsBE 4.67G 60.8G 4.67G /a rpool/ROOT/zfsBE@0804 398K - 4.67G - rpool/dump 1.00G 60.8G 1.00G - rpool/dump@0804 0 - 1.00G - rpool/swap 517M 61.3G 16K - rpool/swap@0804 0 - 16K - |
Defina la propiedad bootfs en el entorno de inicio de la agrupación raíz.
Por ejemplo:
# zpool set bootfs=rpool/ROOT/zfsBE rpool |
Instale los bloques de inicio en el nuevo disco.
SPARC:
# installboot -F zfs /usr/platform/`uname -i`/lib/fs/zfs/bootblk /dev/rdsk/c1t1d0s0 |
x86:
# installgrub /boot/grub/stage1 /boot/grub/stage2 /dev/rdsk/c1t1d0s0 |
Reinicie el sistema.
# init 6 |
Este procedimiento da por hecho que las instantáneas de agrupaciones raíz existentes están disponibles. En el ejemplo, están disponibles en el sistema local.
# zfs snapshot -r rpool@0804 # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 6.17G 60.8G 98K /rpool rpool@0804 0 - 98K - rpool/ROOT 4.67G 60.8G 21K /rpool/ROOT rpool/ROOT@0804 0 - 21K - rpool/ROOT/zfsBE 4.67G 60.8G 4.67G / rpool/ROOT/zfsBE@0804 398K - 4.67G - rpool/dump 1.00G 60.8G 1.00G - rpool/dump@0804 0 - 1.00G - rpool/swap 517M 61.3G 16K - rpool/swap@0804 0 - 16K - |
Apague el sistema e inicie en modo de inicio a prueba de fallos.
ok boot -F failsafe ROOT/zfsBE was found on rpool. Do you wish to have it mounted read-write on /a? [y,n,?] y mounting rpool on /a Starting shell. |
Deshaga cada instantánea de agrupación raíz.
# zfs rollback rpool@0804 # zfs rollback rpool/ROOT@0804 # zfs rollback rpool/ROOT/zfsBE@0804 |
Vuelva a iniciar en modo multiusuario.
# init 6 |