Puede usar la función Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas a partir de la versión Solaris 10 10/08. Actualización automática admite las configuraciones de zona completas y dispersas adicionales a partir de la versión Solaris 10 5/09.
En esta sección se describe cómo configurar un sistema con zonas para que se pueda aplicar un parche o una actualización con Actualización automática de Oracle Solaris a partir de la versión Solaris 10 5/09. Si va a migrar a un sistema de archivos raíz ZFS sin zonas, consulte Uso de Actualización automática de Oracle Solaris para migrar a un sistema de archivos raíz ZFS (sin zonas).
Tenga en cuenta los puntos siguientes cuando se utilice Actualización automática de Oracle Solaris con ZFS y zonas a partir de la versión Solaris 10 5/09:
Para utilizar Actualización automática de Oracle Solaris con configuraciones de zona que se admiten a partir al menos de la versión Solaris 10 5/09, en primer lugar debe actualizar el sistema, al menos, a la versión Solaris 10 5/09, mediante el programa estándar de actualización.
A continuación, mediante Actualización automática de Oracle Solaris, puede migrar el sistema de archivos raíz UFS con raíces de zona a un sistema de archivos raíz ZFS, o bien puede aplicar un parche o una actualización al sistema de archivos raíz ZFS y las raíces de zona.
No se pueden migrar configuraciones de zona no admitidas de una versión anterior de Solaris 10 directamente a la versión Solaris 10 5/09.
Si está migrando o configurando un sistema con zonas a partir de la versión Solaris 10 5/09, revise la siguiente información:
Revise las configuraciones de zona admitidas antes de usar la función Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas.
Migración de un sistema de archivos raíz UFS a un sistema de archivos raíz ZFS – Se admiten las siguientes configuraciones de raíces de zona:
En un directorio del sistema de archivos raíz UFS
En un subdirectorio de un punto de montaje en el sistema de archivos raíz UFS
Sistema de archivos raíz UFS con una raíz de zona en un directorio de sistema de archivos raíz UFS o en un subdirectorio de un punto de montaje de un sistema de archivos raíz UFS y una agrupación no raíz ZFS con una zona raíz
La siguiente configuración UFS/zona no se admite: sistema de archivos raíz UFS que tiene una raíz de zona como punto de montaje.
Migración o actualización de un sistema de archivos raíz ZFS – Se admiten las siguientes configuraciones de raíces de zona:
En un conjunto de datos de la agrupación raíz ZFS. En algunos casos, si no se proporciona un conjunto de datos de la raíz de zona antes de la utilización de Actualización automática de Oracle Solaris, ésta creará un conjunto de datos para la raíz de zona (zoneds).
En un subdirectorio del sistema de archivos raíz ZFS
En un conjunto de datos fuera del sistema de archivos raíz ZFS
En el subdirectorio de un conjunto de datos fuera del sistema de archivos raíz ZFS
En un conjunto de datos de una agrupación no raíz. En el ejemplo siguiente, zonepool/zones es un conjunto de datos que contiene las raíces de zona y rpool contiene el entorno de inicio ZFS:
zonepool zonepool/zones zonepool/zones/myzone rpool rpool/ROOT rpool/ROOT/myBE |
Actualización automática de Oracle Solaris toma una instantánea y clona las zonas de zonepool y el entorno de inicio rpool si utiliza esta sintaxis:
# lucreate -n newBE |
Se crea el entorno de inicio newBE en rpool/ROOT/newBE. Si está activado, newBE proporciona acceso a los componentes de zonepool.
En el ejemplo anterior, si /zonepool/zones fuera un subdirectorio, y no un conjunto de datos independiente, Actualización automática los migraría como componentes de la agrupación raíz, rpool.
Información de actualización o migración de zonas con zonas para UFS y ZFS – Revise las siguientes consideraciones que pueden afectar a una migración o una actualización de un entorno ZFS y UFS:
Si ha configurado las zonas, tal y como se describe en Uso de Actualización automática de Oracle Solaris para migrar o actualizar un sistema con zonas (Solaris 10 10/08) en la versión Solaris 10 10/08 y ha actualizado al menos a Solaris 10 5/09, debería poder migrar a un sistema de archivos raíz ZFS o utilizar Actualización automática de Oracle Solaris para actualizar al menos a la versión Solaris 10 5/09.
No cree raíces de zona en directorios anidados, por ejemplo, zones/zone1 y zones/zone1/zone2. De lo contrario, el montaje puede fallar en el momento del inicio.
Utilice este procedimiento después de haber realizado una instalación inicial de, al menos, la versión Solaris 10 5/09 para crear un sistema de archivos raíz ZFS. Utilice este procedimiento después de utilizar la función luupgrade para la actualización de un sistema de archivos raíz ZFS al menos a la versión Solaris 10 5/09. Se puede aplicar una actualización o un parche a un entorno de inicio ZFS que se cree mediante este procedimiento.
En los pasos que aparecen a continuación, el sistema Oracle Solaris 10 9/10 de ejemplo tiene un sistema de archivos raíz ZFS y un conjunto de datos raíz de zona en /rpool/zones. Se crea un entorno de inicio ZFS denominado zfs2BE al que se puede aplicar una actualización o un parche.
Revise los sistemas de archivos ZFS existentes.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.26G 59.7G 98K /rpool rpool/ROOT 4.64G 59.7G 21K legacy rpool/ROOT/zfsBE 4.64G 59.7G 4.64G / rpool/dump 1.00G 59.7G 1.00G - rpool/export 44K 59.7G 23K /export rpool/export/home 21K 59.7G 21K /export/home rpool/swap 1G 60.7G 16K - rpool/zones 633M 59.7G 633M /rpool/zones |
Asegúrese de que las zonas se hayan instalado e iniciado.
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 zfszone running /rpool/zones native shared |
Cree el entorno de inicio ZFS.
# lucreate -n zfs2BE Analyzing system configuration. No name for current boot environment. INFORMATION: The current boot environment is not named - assigning name <zfsBE>. Current boot environment is named <zfsBE>. Creating initial configuration for primary boot environment <zfsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. Creating configuration for boot environment <zfs2BE>. Source boot environment is <zfsBE>. Creating boot environment <zfs2BE>. Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>. Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>. Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>. Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>. Population of boot environment <zfs2BE> successful. Creation of boot environment <zfs2BE> successful. |
Active el entorno de inicio ZFS.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes yes yes no - zfs2BE yes no no yes - # luactivate zfs2BE A Live Upgrade Sync operation will be performed on startup of boot environment <zfs2BE>. . . . # init 6 |
Confirme que las zonas y los sistemas de archivos ZFS se creen en el nuevo entorno de inicio.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.38G 59.6G 98K /rpool rpool/ROOT 4.72G 59.6G 21K legacy rpool/ROOT/zfs2BE 4.72G 59.6G 4.64G / rpool/ROOT/zfs2BE@zfs2BE 74.0M - 4.64G - rpool/ROOT/zfsBE 5.45M 59.6G 4.64G /.alt.zfsBE rpool/dump 1.00G 59.6G 1.00G - rpool/export 44K 59.6G 23K /export rpool/export/home 21K 59.6G 21K /export/home rpool/swap 1G 60.6G 16K - rpool/zones 17.2M 59.6G 633M /rpool/zones rpool/zones-zfsBE 653M 59.6G 633M /rpool/zones-zfsBE rpool/zones-zfsBE@zfs2BE 19.9M - 633M - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - zfszone installed /rpool/zones native shared |
Utilice este procedimiento cuando deba aplicar parches o actualizaciones a un sistema de archivos raíz ZFS con raíces de zona en la versión Solaris 10 5/09. Las actualizaciones pueden consistir en una actualización del sistema o la aplicación de parches.
En los pasos siguientes, zfs2BE es el nombre de ejemplo del entorno de inicio al que se ha aplicado una actualización o parche.
Revise los sistemas de archivos ZFS existentes.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.38G 59.6G 100K /rpool rpool/ROOT 4.72G 59.6G 21K legacy rpool/ROOT/zfs2BE 4.72G 59.6G 4.64G / rpool/ROOT/zfs2BE@zfs2BE 75.0M - 4.64G - rpool/ROOT/zfsBE 5.46M 59.6G 4.64G / rpool/dump 1.00G 59.6G 1.00G - rpool/export 44K 59.6G 23K /export rpool/export/home 21K 59.6G 21K /export/home rpool/swap 1G 60.6G 16K - rpool/zones 22.9M 59.6G 637M /rpool/zones rpool/zones-zfsBE 653M 59.6G 633M /rpool/zones-zfsBE rpool/zones-zfsBE@zfs2BE 20.0M - 633M - |
Asegúrese de que las zonas se hayan instalado e iniciado.
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 5 zfszone running /rpool/zones native shared |
Cree el entorno de inicio ZFS al que aplicar actualizaciones o parches.
# lucreate -n zfs2BE Analyzing system configuration. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. Creating configuration for boot environment <zfs2BE>. Source boot environment is <zfsBE>. Creating boot environment <zfs2BE>. Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>. Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>. Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>. Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>. Creating snapshot for <rpool/zones> on <rpool/zones@zfs10092BE>. Creating clone for <rpool/zones@zfs2BE> on <rpool/zones-zfs2BE>. Population of boot environment <zfs2BE> successful. Creation of boot environment <zfs2BE> successful. |
Seleccione una de las opciones siguientes para actualizar el sistema o aplicar parches al nuevo entorno de inicio:
Actualice el sistema.
# luupgrade -u -n zfs2BE -s /net/install/export/s10up/latest |
La opción -s especifica la ubicación de un medio de instalación de Solaris.
Este proceso puede durar mucho tiempo.
Para obtener un ejemplo completo del proceso luupgrade, consulte el Ejemplo 5–6.
Aplique parches al nuevo entorno de inicio.
# luupgrade -t -n zfs2BE -t -s /patchdir patch-id-02 patch-id-04 |
Active el nuevo entorno de inicio.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes yes yes no - zfs2BE yes no no yes - # luactivate zfs2BE A Live Upgrade Sync operation will be performed on startup of boot environment <zfs2BE>. . . . |
Inicie desde el entorno de inicio recién activado.
# init 6 |
En este ejemplo, un entorno de inicio ZFS (zfsBE), creado en un sistema Solaris 10 10/09 con un sistema de archivos raíz ZFS y raíz de zona en una agrupación no raíz, se actualiza a la versión Oracle Solaris 10 9/10. Este proceso puede durar mucho tiempo. A continuación, el entorno de inicio actualizado (zfs2BE) se activa. Asegúrese de que las zonas se hayan instalado e iniciado antes de intentar la actualización.
En este ejemplo, la agrupación zonepool, el conjunto de datos /zonepool/zones, así como la zona zfszone se crean de este modo:
# zpool create zonepool mirror c2t1d0 c2t5d0 # zfs create zonepool/zones # chmod 700 zonepool/zones # zonecfg -z zfszone zfszone: No such zone configured Use 'create' to begin configuring a new zone. zonecfg:zfszone> create zonecfg:zfszone> set zonepath=/zonepool/zones zonecfg:zfszone> verify zonecfg:zfszone> exit # zoneadm -z zfszone install cannot create ZFS dataset zonepool/zones: dataset already exists Preparing to install zone <zfszone>. Creating list of files to copy from the global zone. Copying <8960> files to the zone. . . . |
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 zfszone running /zonepool/zones native shared # lucreate -n zfsBE . . . # luupgrade -u -n zfsBE -s /net/install/export/s10up/latest 40410 blocks miniroot filesystem is <lofs> Mounting miniroot at </net/system/export/s10up/latest/Solaris_10/Tools/Boot> Validating the contents of the media </net/system/export/s10up/latest>. The media is a standard Solaris media. The media contains an operating system upgrade image. The media contains <Solaris> version <10>. Constructing upgrade profile to use. Locating the operating system upgrade program. Checking for existence of previously scheduled Live Upgrade requests. Creating upgrade profile for BE <zfsBE>. Determining packages to install or upgrade for BE <zfsBE>. Performing the operating system upgrade of the BE <zfsBE>. CAUTION: Interrupting this process may leave the boot environment unstable or unbootable. Upgrading Solaris: 100% completed Installation of the packages from this media is complete. Updating package information on boot environment <zfsBE>. Package information successfully updated on boot environment <zfsBE>. Adding operating system patches to the BE <zfsBE>. The operating system patch installation is complete. INFORMATION: The file </var/sadm/system/logs/upgrade_log> on boot environment <zfsBE> contains a log of the upgrade operation. INFORMATION: The file </var/sadm/system/data/upgrade_cleanup> on boot environment <zfsBE> contains a log of cleanup operations required. INFORMATION: Review the files listed above. Remember that all of the files are located on boot environment <zfsBE>. Before you activate boot environment <zfsBE>, determine if any additional system maintenance is required or if additional media of the software distribution must be installed. The Solaris upgrade of the boot environment <zfsBE> is complete. Installing failsafe Failsafe install is complete. # luactivate zfsBE # init 6 # lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes no no yes - zfs2BE yes yes yes no - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - zfszone installed /zonepool/zones native shared |
Utilice este procedimiento para migrar un sistema con un sistema de archivos raíz UFS y una raíz de zona al menos a la versión Solaris 10 5/09. A continuación, utilice Actualización automática de Oracle Solaris para crear un entorno de inicio ZFS.
En los pasos que aparecen a continuación, el nombre del entorno de inicio UFS de ejemplo es c0t1d0s0, la raíz de zona UFS es zonepool/zfszone y el entorno de inicio raíz es zfsBE.
Actualice el sistema a la versión Solaris 10 5/09 si se ejecuta una versión de Solaris 10 anterior.
Para obtener información sobre cómo actualizar un sistema que ejecuta la versión Solaris 10, consulte Guía de instalación de Oracle Solaris 10 9/10: Actualización automática de Solaris y planificación de la actualización.
Cree la agrupación raíz.
Si necesita información sobre los requisitos de agrupaciones raíz, consulte Requisitos de instalación de Oracle Solaris y de Actualización automática de Oracle Solaris para compatibilidad con ZFS.
Confirme que se hayan iniciado las zonas desde el entorno de inicio UFS.
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 zfszone running /zonepool/zones native shared |
Cree el nuevo entorno de inicio ZFS.
# lucreate -c c1t1d0s0 -n zfsBE -p rpool |
Este comando establece conjuntos de datos en la agrupación raíz del nuevo entorno de inicio y copia el entorno de inicio actual (zonas incluidas) en esos conjuntos de datos.
Active el nuevo entorno de inicio ZFS.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- c1t1d0s0 yes no no yes - zfsBE yes yes yes no - # luactivate zfsBE A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>. . . . |
Reinicie el sistema.
# init 6 |
Confirme que las zonas y los sistemas de archivos ZFS se creen en el nuevo entorno de inicio.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 6.17G 60.8G 98K /rpool rpool/ROOT 4.67G 60.8G 21K /rpool/ROOT rpool/ROOT/zfsBE 4.67G 60.8G 4.67G / rpool/dump 1.00G 60.8G 1.00G - rpool/swap 517M 61.3G 16K - zonepool 634M 7.62G 24K /zonepool zonepool/zones 270K 7.62G 633M /zonepool/zones zonepool/zones-c1t1d0s0 634M 7.62G 633M /zonepool/zones-c1t1d0s0 zonepool/zones-c1t1d0s0@zfsBE 262K - 633M - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - zfszone installed /zonepool/zones native shared |
En este ejemplo, un sistema Oracle Solaris 10 9/10 con un sistema de archivos raíz UFS y una raíz de zona (/uzone/ufszone), así como una agrupación que no es raíz ZFS (pool) y una raíz de zona (/pool/zfszone) se migra a un sistema de archivos raíz ZFS. Asegúrese de que la agrupación raíz ZFS se haya creado y de que las zonas se hayan instalado e iniciado antes de intentar la migración.
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 ufszone running /uzone/ufszone native shared 3 zfszone running /pool/zones/zfszone native shared |
# lucreate -c ufsBE -n zfsBE -p rpool Analyzing system configuration. No name for current boot environment. Current boot environment is named <zfsBE>. Creating initial configuration for primary boot environment <zfsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <ufsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <ufsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <zfsBE>. Source boot environment is <ufsBE>. Creating boot environment <zfsBE>. Creating file systems on boot environment <zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>. Populating file systems on boot environment <zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Copying root of zone <ufszone> to </.alt.tmp.b-EYd.mnt/uzone/ufszone>. Creating snapshot for <pool/zones/zfszone> on <pool/zones/zfszone@zfsBE>. Creating clone for <pool/zones/zfszone@zfsBE> on <pool/zones/zfszone-zfsBE>. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </rpool/ROOT>. Creating compare database for file system </>. Updating compare databases on boot environment <zfsBE>. Making boot environment <zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-DLd.mnt updating /.alt.tmp.b-DLd.mnt/platform/sun4u/boot_archive Population of boot environment <zfsBE> successful. Creation of boot environment <zfsBE> successful. # lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- ufsBE yes yes yes no - zfsBE yes no no yes - # luactivate zfsBE . . . # init 6 . . . # zfs list NAME USED AVAIL REFER MOUNTPOINT pool 628M 66.3G 19K /pool pool/zones 628M 66.3G 20K /pool/zones pool/zones/zfszone 75.5K 66.3G 627M /pool/zones/zfszone pool/zones/zfszone-ufsBE 628M 66.3G 627M /pool/zones/zfszone-ufsBE pool/zones/zfszone-ufsBE@zfsBE 98K - 627M - rpool 7.76G 59.2G 95K /rpool rpool/ROOT 5.25G 59.2G 18K /rpool/ROOT rpool/ROOT/zfsBE 5.25G 59.2G 5.25G / rpool/dump 2.00G 59.2G 2.00G - rpool/swap 517M 59.7G 16K - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - ufszone installed /uzone/ufszone native shared - zfszone installed /pool/zones/zfszone native shared |