Ignorer les liens de navigation | |
Quitter l'aperu | |
Guide d'administration Oracle Solaris ZFS Oracle Solaris 10 1/13 Information Library (Français) |
1. Système de fichiers Oracle Solaris ZFS (introduction)
2. Mise en route d'Oracle Solaris ZFS
3. Gestion des pools de stockage Oracle Solaris ZFS
4. Installation et initialisation d'un système de fichiers root ZFS Oracle Solaris
Installation et initialisation d'un système de fichiers root Oracle Solaris ZFS (présentation)
Fonctions d'installation de ZFS
Version Oracle Solaris requise
Configuration requise générale relative au pool root ZFS
Espace disque requis pour les pools root ZFS
Configuration requise pour le pool root ZFS
Installation d'un système de fichiers root ZFS (installation initiale d'Oracle Solaris)
Création d'un pool root ZFS mis en miroir (post-installation)
Installation d'un système de fichiers root ZFS (installation d'archive Flash Oracle Solaris)
Installation d'un système de fichiers root ZFS (installation JumpStart)
Exemples de profils JumpStart pour ZFS
Problèmes de migration ZFS avec Live Upgrade
Utilisation de Live Upgrade pour migrer ou mettre à niveau un système avec zones (Solaris 10 10/08)
Configuration d'un système de fichiers root ZFS avec roots de zone sur ZFS (Solaris 10 10/08)
Gestion de vos périphériques de swap et de vidage ZFS
Ajustement de la taille de vos périphériques de swap et de vidage ZFS
Personnalisation des volumes de swap et de vidage ZFS
Dépannage du périphérique de vidage ZFS
Initialisation à partir d'un système de fichiers root ZFS
Initialisation à partir d'un disque alternatif d'un pool root ZFS mis en miroir
SPARC : initialisation à partir d'un système de fichiers root ZFS
x86 : initialisation à partir d'un système de fichiers root ZFS
Résolution de problèmes de point de montage empêchant l'initialisation (Solaris 10 10/08)
Résolution des problèmes de point de montage ZFS
Initialisation à des fins de récupération dans un environnement root ZFS
Initialisation d'un système de fichiers ZFS en mode de secours
Initialisation d'un système de fichiers ZFS à partir d'un autre média
Restauration du pool root ZFS ou des instantanés du pool root
Remplacement d'un disque dans le pool root ZFS
Création d'instantanés de pool root
Recréation d'un pool root ZFS et restauration d'instantanés de pool root
Restauration des instantanés d'un pool root à partir d'une initialisation de secours
5. Gestion des systèmes de fichiers Oracle Solaris ZFS
6. Utilisation des instantanés et des clones ZFS Oracle Solaris
7. Utilisation des ACL et des attributs pour protéger les fichiers Oracle Solaris ZFS
8. Administration déléguée de ZFS dans Oracle Solaris
9. Rubriques avancées Oracle Solaris ZFS
10. Dépannage d'Oracle Solaris ZFS et récupération de pool
11. Pratiques recommandées pour Oracle Solaris ZFS
Les fonctions d'Oracle Live Upgrade concernant les composants UFS sont toujours disponibles et fonctionnent comme dans les versions précédentes de Solaris.
Voici l'ensemble des fonctions disponibles :
Migration d'un environnement d'initialisation UFS vers un environnement d'initialisation ZFS
Lorsque vous migrez un système de fichiers root UFS vers un système de fichiers root ZFS, vous devez désigner un pool de stockage ZFS existant à l'aide de l'option -p.
Si les composants du système de fichiers root UFS sont répartis sur diverses tranches, ils sont migrés vers le pool root ZFS.
Dans la version Oracle Solaris 10 8/11, vous pouvez indiquer un système de fichiers /var distinct lors de la migration d'un système de fichiers root UFS vers un système de fichiers root ZFS.
Le processus de base de la migration d'un système de fichiers root UFS vers un système de fichiers root ZFS est le suivant :
Si nécessaire, installez les patchs Live Upgrade requis.
Installez une version actuelle d'Oracle Solaris 10 (Solaris 10 10/08 à Oracle Solaris 10 8/11) ou utilisez le programme de mise à niveau standard pour effectuer la mise à niveau depuis une version antérieure d'Oracle Solaris 10 sur tout système SPARC ou x86 pris en charge.
Lorsque vous exécutez la version Solaris 10 10/08 ou une version supérieure, créez un pool de stockage ZFS pour votre système de fichiers root ZFS.
Utilisez Live Upgrade pour migrer votre système de fichiers root UFS vers un système de fichiers root ZFS.
Activez votre environnement d'initialisation ZFS à l'aide de la commande luactivate.
Patch ou mise à niveau d'un environnement d'initialisation ZFS
Vous pouvez utiliser la commande luupgrade pour installer un patch ou mettre à niveau un environnement d'initialisation ZFS existant. Vous pouvez également utiliser luupgrade pour mettre à niveau un autre environnement d'initialisation ZFS à l'aide d'une archive Flash ZFS. Pour plus d'informations, reportez-vous à l'Exemple 4-8.
Lorsque vous créez un environnement d'initialisation ZFS dans le même pool, Live Upgrade peut faire appel aux fonctions d'instantané et de clonage ZFS. La création d'un environnement d'initialisation est de ce fait plus rapide que dans les versions précédentes.
Prise en charge de la migration de zones : vous migrez un système comportant des zones, mais les configurations prises en charge sont limitées dans la version Solaris 10 10/08. A compter de la version 10 5/09, Solaris prend en charge davantage de configurations de zone. Pour plus d'informations, consultez les sections suivantes :
Pour la migration vers un système sans zones, reportez-vous à la section Utilisation de Live Upgrade pour migrer ou mettre à jour un système de fichiers root ZFS (sans zones).
Pour plus d'informations sur l'installation d'Oracle Solaris et sur les fonctions de Live Upgrade, reportez-vous au Guide d’installation d’Oracle Solaris 10 1/13 : Live Upgrade et planification de la mise à niveau.
Pour plus d'informations sur la configuration requise de ZFS et de Live Upgrade, reportez-vous à la section Configuration requise pour l'installation d'Oracle Solaris et de Live Upgrade pour la prise en charge de ZFS.
Vérifiez la liste de problèmes suivants avant d'utiliser Live Upgrade pour migrer votre système de fichiers root UFS vers un système de fichiers root ZFS :
L'option de mise à niveau standard de l'interface graphique du programme d'installation d'Oracle Solaris n'est pas disponible pour la migration d'un système de fichiers root UFS vers un système de fichiers root ZFS. Pour migrer un système de fichiers UFS, vous devez utiliser Live Upgrade.
Vous devez créer le pool de stockage ZFS à utiliser pour l'initialisation avant de lancer Live Upgrade. En outre, en raison des limitations actuelles de l'initialisation, le pool root ZFS doit être créé avec des tranches plutôt qu'avec des disques entiers. Par exemple :
# zpool create rpool mirror c1t0d0s0 c1t1d0s0
Avant de créer le nouveau pool, assurez-vous que les disques à utiliser dans le pool portent une étiquette SMI (VTOC) au lieu d'une étiquette EFI. Si le disque a été réétiqueté avec une étiquette SMI, assurez-vous que le processus d'étiquetage n'a pas modifié le schéma de partitionnement. Dans la plupart des cas, toute la capacité du disque doit se trouver dans les tranches destinées au pool root.
Vous ne pouvez pas utiliser Oracle Solaris Live Upgrade pour créer un environnement d'initialisation UFS à partir d'un environnement d'initialisation ZFS. Si vous migrez votre environnement d'initialisation UFS vers un environnement d'initialisation ZFS tout en conservant votre environnement d'initialisation UFS, vous pouvez initialiser l'un ou l'autre des environnements (UFS ou ZFS).
Ne renommez pas vos environnements d'initialisation ZFS à l'aide de la commande zfs rename car Live Upgrade ne détecte pas les changements de nom. Toute commande utilisée ultérieurement, notamment ludelete, échoue. Ne renommez en fait pas vos pools ZFS ni vos systèmes de fichiers ZFS si vous disposez d'environnements d'initialisation que vous souhaitez continuer à utiliser.
Lorsque vous créez un autre environnement d'initialisation cloné sur l'environnement d'initialisation principal, vous ne pouvez pas utiliser les options -f, -x, -y, -Y et -z pour inclure ou exclure des fichiers de l'environnement d'initialisation principal. Vous pouvez toutefois vous servir des options d'inclusion et d'exclusion dans les cas suivants :
UFS -> UFS UFS -> ZFS ZFS -> ZFS (different pool)
Bien que vous puissiez utiliser Live Upgrade pour mettre à niveau votre système de fichiers root UFS vers un système de fichiers root ZFS, vous ne pouvez pas vous servir de Live Upgrade pour mettre à niveau des systèmes de fichiers partagés ni des systèmes de fichiers qui ne sont pas des systèmes de fichiers root.
Vous ne pouvez pas utiliser une commande lu pour créer ou migrer un système de fichiers root ZFS.
Si vous souhaitez disposer de votre système de périphérique de swap et de vidage dans un pool non-root, reportez-vous à Personnalisation des volumes de swap et de vidage ZFS.
Les exemples suivants illustrent la migration d'un système de fichiers root UFS vers un système de fichiers root ZFS et la mise à jour d'un système de fichiers root ZFS.
Si vous migrez un système comportant des zones ou effectuez sa mise à jour, reportez-vous aux sections suivantes :
Exemple 4-4 Utilisation de Live Upgrade pour migrer un système de fichiers root UFS vers un système de fichiers root ZFS
L'exemple suivant montre comment effectuer la migration d'un système de fichiers root UFS vers un système de fichiers root ZFS. L'environnement d'initialisation actuel, ufsBE, qui contient un système de fichiers root UFS, est identifié par l'option -c. Si vous n'incluez pas l'option -c, le nom actuel de l'environnement d'initialisation sera par défaut le nom du périphérique. Le nouvel environnement d'initialisation, zfsBE, est identifié par l'option -n. L'utilisation de la commande lucreate requiert l'existence préalable d'un pool de stockage ZFS.
Pour pouvoir mettre à niveau et initialiser le pool de stockage ZFS, vous devez le créer avec des tranches plutôt que des disques entiers. Avant de créer le nouveau pool, assurez-vous que les disques à utiliser dans le pool portent une étiquette SMI (VTOC) au lieu d'une étiquette EFI. Si le disque a été réétiqueté avec une étiquette SMI, assurez-vous que le processus d'étiquetage n'a pas modifié le schéma de partitionnement. Dans la plupart des cas, toute la capacité du disque doit se trouver dans la tranche destinée au pool root.
# zpool create rpool mirror c1t2d0s0 c2t1d0s0 # lucreate -c ufsBE -n zfsBE -p rpool Analyzing system configuration. No name for current boot environment. Current boot environment is named <ufsBE>. Creating initial configuration for primary boot environment <ufsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <ufsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <ufsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t2d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <zfsBE>. Source boot environment is <ufsBE>. Creating boot environment <zfsBE>. Creating file systems on boot environment <zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>. Populating file systems on boot environment <zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </rpool/ROOT>. Creating compare database for file system </>. Updating compare databases on boot environment <zfsBE>. Making boot environment <zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-qD.mnt updating /.alt.tmp.b-qD.mnt/platform/sun4u/boot_archive Population of boot environment <zfsBE> successful. Creation of boot environment <zfsBE> successful.
Une fois l'exécution de la commande lucreate terminée, utilisez la commande lustatus pour afficher l'état de l'environnement d'initialisation. Par exemple :
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- ufsBE yes yes yes no - zfsBE yes no no yes -
Examinez ensuite la liste des composants ZFS. Par exemple :
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.17G 59.8G 95.5K /rpool rpool/ROOT 4.66G 59.8G 21K /rpool/ROOT rpool/ROOT/zfsBE 4.66G 59.8G 4.66G / rpool/dump 2G 61.8G 16K - rpool/swap 517M 60.3G 16K -
Utilisez ensuite la commande luactivate pour activer le nouvel environnement d'initialisation ZFS. Par exemple :
# luactivate zfsBE A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>. ********************************************************************** The target boot environment has been activated. It will be used when you reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You MUST USE either the init or the shutdown command when you reboot. If you do not use either init or shutdown, the system will not boot using the target BE. ********************************************************************** . . . Modifying boot archive service Activation of boot environment <zfsBE> successful.
Réinitialisez ensuite le système afin d'utiliser l'environnement d'initialisation ZFS.
# init 6
Confirmez que l'environnement d'initialisation ZFS est actif.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- ufsBE yes no no yes - zfsBE yes yes yes no -
Si vous repassez à l'environnement d'initialisation UFS, vous devez réimporter tous les pools de stockage ZFS créés au cours de l'initialisation de l'environnement d'initialisation ZFS car ils ne sont pas disponibles automatiquement dans l'environnement d'initialisation UFS.
Lorsque l'environnement d'initialisation UFS est obsolète, vous pouvez le supprimer à l'aide de la commande ludelete.
Exemple 4-5 Utilisation de Live Upgrade pour créer un environnement d'initialisation ZFS à partir d'un environnement d'initialisation UFS (avec un /var distinct)
Dans la version Oracle Solaris 10 8/11, vous pouvez utiliser l'option lucreate -D pour indiquer que vous souhaitez qu'un autre système de fichiers /var soit créé lors de la migration d'un système de fichiers root UFS vers un système de fichiers root ZFS. Dans l'exemple suivant, l'environnement d'initialisation UFS existant est migré vers un environnement d'initialisation ZFS avec un système de fichiers /var distinct.
# lucreate -n zfsBE -p rpool -D /var Determining types of file systems supported Validating file system requests Preparing logical storage devices Preparing physical storage devices Configuring physical storage devices Configuring logical storage devices Analyzing system configuration. No name for current boot environment. INFORMATION: The current boot environment is not named - assigning name <c0t0d0s0>. Current boot environment is named <c0t0d0s0>. Creating initial configuration for primary boot environment <c0t0d0s0>. INFORMATION: No BEs are configured on this system. The device </dev/dsk/c0t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <c0t0d0s0> PBE Boot Device </dev/dsk/c0t0d0s0>. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c0t1d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <zfsBE>. Source boot environment is <c0t0d0s0>. Creating file systems on boot environment <zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>. Creating <zfs> file system for </var> in zone <global> on <rpool/ROOT/zfsBE/var>. Populating file systems on boot environment <zfsBE>. Analyzing zones. Mounting ABE <zfsBE>. Generating file list. Copying data from PBE <c0t0d0s0> to ABE <zfsBE> 100% of filenames transferred Finalizing ABE. Fixing zonepaths in ABE. Unmounting ABE <zfsBE>. Fixing properties on ZFS datasets in ABE. Reverting state of zones in PBE <c0t0d0s0>. Making boot environment <zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-iaf.mnt updating /.alt.tmp.b-iaf.mnt/platform/sun4u/boot_archive Population of boot environment <zfsBE> successful. Creation of boot environment <zfsBE> successful. # luactivate zfsBE A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>. . . . Modifying boot archive service Activation of boot environment <zfsBE> successful. # init 6
Passez en revue les systèmes de fichiers ZFS nouvellement créés. Par exemple :
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 6.29G 26.9G 32.5K /rpool rpool/ROOT 4.76G 26.9G 31K legacy rpool/ROOT/zfsBE 4.76G 26.9G 4.67G / rpool/ROOT/zfsBE/var 89.5M 26.9G 89.5M /var rpool/dump 512M 26.9G 512M - rpool/swap 1.03G 28.0G 16K -
Exemple 4-6 Utilisation de Live Upgrade pour créer un environnement d'initialisation ZFS à partir d'un environnement d'initialisation ZFS
La création d'un environnement d'initialisation ZFS à partir d'un environnement d'initialisation ZFS du même pool est très rapide car l'opération fait appel aux fonctions d'instantané et de clonage ZFS. Si l'environnement d'initialisation actuel se trouve dans le même pool ZFS, l'option -p est omise.
Si vous disposez de plusieurs environnements d'initialisation ZFS, procédez comme suit pour sélectionner l'environnement d'initialisation à partir duquel vous voulez initialiser le système :
SPARC : vous pouvez utiliser la commande boot -L pour identifier les environnements d'initialisation disponibles. Ensuite, sélectionnez un environnement d'initialisation à partir duquel effectuer l'initialisation en utilisant la commande boot -Z.
x86 : vous pouvez sélectionner un environnement d'initialisation à partir du menu GRUB.
Pour plus d'informations, reportez-vous à l'Exemple 4-12.
# lucreate -n zfs2BE Analyzing system configuration. No name for current boot environment. INFORMATION: The current boot environment is not named - assigning name <zfsBE>. Current boot environment is named <zfsBE>. Creating initial configuration for primary boot environment <zfsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. Creating configuration for boot environment <zfs2BE>. Source boot environment is <zfsBE>. Creating boot environment <zfs2BE>. Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>. Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>. Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>. Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>. Population of boot environment <zfs2BE> successful. Creation of boot environment <zfs2BE> successful.
Exemple 4-7 Mise à niveau de votre environnement d'initialisation ZFS (luupgrade)
Vous pouvez mettre à niveau votre environnement d'initialisation ZFS à l'aide de packages ou de patchs supplémentaires.
Le processus de base est le suivant :
Créez un environnement d'initialisation alternatif à l'aide de la commande lucreate.
Activez et initialisez le système à partir de l'environnement d'initialisation alternatif.
Mettez votre environnement d'initialisation ZFS principal à niveau l'aide de la commande luupgrade pour ajouter des packages ou des patchs.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes no no yes - zfs2BE yes yes yes no - # luupgrade -p -n zfsBE -s /net/system/export/s10up/Solaris_10/Product SUNWchxge Validating the contents of the media </net/install/export/s10up/Solaris_10/Product>. Mounting the BE <zfsBE>. Adding packages to the BE <zfsBE>. Processing package instance <SUNWchxge> from </net/install/export/s10up/Solaris_10/Product> Chelsio N110 10GE NIC Driver(sparc) 11.10.0,REV=2006.02.15.20.41 Copyright (c) 2010, Oracle and/or its affiliates. All rights reserved. This appears to be an attempt to install the same architecture and version of a package which is already installed. This installation will attempt to overwrite this package. Using </a> as the package base directory. ## Processing package information. ## Processing system information. 4 package pathnames are already properly installed. ## Verifying package dependencies. ## Verifying disk space requirements. ## Checking for conflicts with packages already installed. ## Checking for setuid/setgid programs. This package contains scripts which will be executed with super-user permission during the process of installing this package. Do you want to continue with the installation of <SUNWchxge> [y,n,?] y Installing Chelsio N110 10GE NIC Driver as <SUNWchxge> ## Installing part 1 of 1. ## Executing postinstall script. Installation of <SUNWchxge> was successful. Unmounting the BE <zfsBE>. The package add to the BE <zfsBE> completed.
Vous pouvez aussi créer un nouvel environnement d'initialisation à mettre à jour avec une version ultérieure d'Oracle Solaris. Par exemple :
# luupgrade -u -n newBE -s /net/install/export/s10up/latest
L'option -s représente l'emplacement d'un mode d'installation Solaris.
Exemple 4-8 Création d'un environnement d'initialisation ZFS avec une archive Flash ZFS (luupgrade )
Dans la version Oracle Solaris 10 8/11, vous pouvez utiliser la commande luupgrade pour créer un environnement d'initialisation ZFS à partir d'une archive Flash ZFS. Le processus de base est comme décrit ci-après :
Créez une archive Flash d'un système maître avec un environnement d'initialisation ZFS.
Par exemple :
master-system# flarcreate -n s10zfsBE /tank/data/s10zfsflar Full Flash Checking integrity... Integrity OK. Running precreation scripts... Precreation scripts done. Determining the size of the archive... The archive will be approximately 4.67GB. Creating the archive... Archive creation complete. Running postcreation scripts... Postcreation scripts done. Running pre-exit scripts... Pre-exit scripts done.
Mettez l'archive Flash ZFS créée sur le système maître à disposition du système clone.
Les emplacements d'archives Flash possibles sont un système de fichiers local, HTTP, FTP, NFS, etc.
Créez un autre environnement d'initialisation ZFS vide sur le système clone.
Utilisez l'option -s - pour indiquer qu'il s'agit d'un environnement d'initialisation vide destiné à être rempli avec le contenu de l'archive Flash ZFS.
Par exemple :
clone-system# lucreate -n zfsflashBE -s - -p rpool Determining types of file systems supported Validating file system requests Preparing logical storage devices Preparing physical storage devices Configuring physical storage devices Configuring logical storage devices Analyzing system configuration. No name for current boot environment. INFORMATION: The current boot environment is not named - assigning name <s10zfsBE>. Current boot environment is named <s10zfsBE>. Creating initial configuration for primary boot environment <s10zfsBE>. INFORMATION: No BEs are configured on this system. The device </dev/dsk/c0t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <s10zfsBE> PBE Boot Device </dev/dsk/c0t0d0s0>. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c0t1d0s0> is not a root device for any boot environment; cannot get BE ID. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsflashBE>. Creation of boot environment <zfsflashBE> successful.
Installez l'archive Flash ZFS dans l'autre environnement d'initialisation.
Par exemple :
clone-system# luupgrade -f -s /net/server/export/s10/latest -n zfsflashBE -a /tank/data/zfs10up2flar miniroot filesystem is <lofs> Mounting miniroot at </net/server/s10up/latest/Solaris_10/Tools/Boot> Validating the contents of the media </net/server/export/s10up/latest>. The media is a standard Solaris media. Validating the contents of the miniroot </net/server/export/s10up/latest/Solaris_10/Tools/Boot>. Locating the flash install program. Checking for existence of previously scheduled Live Upgrade requests. Constructing flash profile to use. Creating flash profile for BE <zfsflashBE>. Performing the operating system flash install of the BE <zfsflashBE>. CAUTION: Interrupting this process may leave the boot environment unstable or unbootable. Extracting Flash Archive: 100% completed (of 5020.86 megabytes) The operating system flash install completed. updating /.alt.tmp.b-rgb.mnt/platform/sun4u/boot_archive The Live Flash Install of the boot environment <zfsflashBE> is complete.
Activez l'environnement d'initialisation ZFS alternatif.
clone-system# luactivate zfsflashBE A Live Upgrade Sync operation will be performed on startup of boot environment <zfsflashBE>. . . . Modifying boot archive service Activation of boot environment <zfsflashBE> successful.
Réinitialisez le système.
clone-system# init 6
Vous pouvez utiliser Live Upgrade pour migrer un système avec zones. Dans Solaris 10 10/08, les configurations prises en charge sont toutefois limitées. Si vous installez Solaris 10 5/09 ou effectuez une mise à niveau vers cette version, un nombre plus important de configurations de zone est pris en charge. Pour plus d'informations, reportez-vous à la section Utilisation d'Oracle Solaris Live Upgrade pour migrer ou mettre à jour un système avec zones (version Solaris 10 5/09 ou supérieure).
Cette section explique comment configurer et installer un système avec zones de manière à ce qu'il puisse être mis à jour et corrigé avec Live Upgrade. Si vous effectuez la migration vers un système de fichiers root ZFS sans zones, reportez-vous à la section Utilisation de Live Upgrade pour migrer ou mettre à jour un système de fichiers root ZFS (sans zones).
Si vous migrez un système avec zones ou configurez un système avec zones dans Solaris 10 10/08, consultez les procédures suivantes :
Configuration d'un système de fichiers root ZFS avec roots de zone sur ZFS (Solaris 10 10/08)
Résolution de problèmes de point de montage empêchant l'initialisation (Solaris 10 10/08)
Suivez les procédures recommandées pour configurer des zones sur un système avec système de fichiers root ZFS pour vérifier que vous pouvez utiliser Live Upgrade sur ce système.
La procédure suivante explique comment migrer d'un système de fichiers root UFS comportant des zones installées vers un système de fichiers root ZFS et une configuration de root de zone ZFS pouvant être mis à niveau ou patchés.
Dans les étapes suivantes, le pool porte le nom rpool et les noms des environnements d'initialisation débutent par S10BE* .
Pour plus d'informations sur la mise à niveau d'un système exécutant Solaris 10, reportez-vous au Guide d’installation d’Oracle Solaris 10 1/13 : Live Upgrade et planification de la mise à niveau.
# zpool create rpool mirror c0t1d0 c1t1d0
Pour plus d'informations sur la configuration requise pour le pool root, reportez-vous à la section Configuration requise pour l'installation d'Oracle Solaris et de Live Upgrade pour la prise en charge de ZFS.
# lucreate -n s10BE2 -p rpool
Cette commande crée des jeux de données dans le pool root pour le nouvel environnement d'initialisation et copie l'environnement d'initialisation actuel (zones incluses) vers ces jeux de données.
# luactivate s10BE2
Le système exécute désormais un système de fichiers root ZFS, mais les roots de zone sur UFS se trouvent toujours sur le système de fichiers root UFS. Les étapes suivantes sont nécessaires pour finaliser la migration des zones UFS vers une configuration ZFS prise en charge.
# init 6
# lucreate s10BE3
# luactivate s10BE3
# init 6
Cette étape vérifie que l'environnement d'initialisation ZFS et les zones ont été initialisés.
Etant donné la présence d'un bogue dans Live Upgrade, il se peut que l'environnement d'initialisation inactif ne puisse pas s'initialiser. Ce problème est lié à la présence d'un point de montage non valide dans un jeu de données ZFS ou dans un jeu de données ZFS d'une zone de l'environnement d'initialisation.
Vérifiez qu'elle ne contient aucun point de montage temporaire erroné. Par exemple :
# zfs list -r -o name,mountpoint rpool/ROOT/s10up NAME MOUNTPOINT rpool/ROOT/s10up /.alt.tmp.b-VP.mnt/ rpool/ROOT/s10up/zones /.alt.tmp.b-VP.mnt//zones rpool/ROOT/s10up/zones/zonerootA /.alt.tmp.b-VP.mnt/zones/zonerootA
Le point de montage pour l'environnement d'initialisation root ZFS (rpool/ROOT/s10up) doit être /.
Par exemple :
# zfs inherit -r mountpoint rpool/ROOT/s10up # zfs set mountpoint=/ rpool/ROOT/s10up
Lorsque l'option d'initialisation d'un environnement d'initialisation spécifique est proposée, à l'invite de la PROM OpenBoot ou dans le menu GRUB, sélectionnez l'environnement d'initialisation dont les points de montage viennent d'être corrigés.
La procédure suivante explique comment installer un système de fichiers root ZFS et une configuration root de zone ZFS pouvant être mis à niveau ou patchés. Dans cette configuration, les roots de zone ZFS sont créés sous forme de jeux de données ZFS.
Dans les étapes qui suivantes, le pool porte le nom rpool et l'environnement d'initialisation actif porte le nom s10BE. Le nom du jeu de données de zones peut être tout nom de jeu de données valide. Dans l'exemple suivant, le jeu de données des zones porte le nom zones.
Selon la méthode d'installation que vous choisissez, reportez-vous à la section Installation d'un système de fichiers root ZFS (installation initiale d'Oracle Solaris) ou à la section Installation d'un système de fichiers root ZFS (installation JumpStart).
Par exemple :
# zfs create -o canmount=noauto rpool/ROOT/s10BE/zones
La définition de la valeur noauto pour la propriété canmount permet d'éviter que le jeu de données ne soit monté d'une manière autre que par l'action explicite de Live Upgrade et le code de démarrage du système.
# zfs mount rpool/ROOT/s10BE/zones
Le jeu de données est monté sous /zones.
# zfs create -o canmount=noauto rpool/ROOT/s10BE/zones/zonerootA # zfs mount rpool/ROOT/s10BE/zones/zonerootA
# chmod 700 /zones/zonerootA
# zonecfg -z zoneA zoneA: No such zone configured Use 'create' to begin configuring a new zone. zonecfg:zoneA> create zonecfg:zoneA> set zonepath=/zones/zonerootA
Vous pouvez activer l'initialisation automatique des zones à l'initialisation du système en respectant la syntaxe suivante :
zonecfg:zoneA> set autoboot=true
# zoneadm -z zoneA install
# zoneadm -z zoneA boot
Suivez cette procédure pour mettre à niveau ou patcher un système de fichiers root ZFS comportant des roots de zone. Ces mises à jour peuvent consister soit en une mise à niveau du système, soit en l'application de patchs.
Dans les étapes suivantes, l'environnement d'initialisation mis à niveau ou corrigé porte le nom newBE.
# lucreate -n newBE
L'environnement d'initialisation existant, y compris toutes les zones, est cloné. Un jeu de données est créé pour chaque jeu de données de l'environnement d'initialisation d'origine. Ils sont créés dans le même pool que le pool root actuel.
Mettez à niveau le système.
# luupgrade -u -n newBE -s /net/install/export/s10up/latest
L'option -s représente l'emplacement du média d'installation d'Oracle Solaris.
Appliquez les patchs au nouvel environnement d'initialisation.
# luupgrade -t -n newBE -t -s /patchdir 139147-02 157347-14
# luactivate newBE
# init 6
Etant donné la présence d'un bogue dans Live Upgrade, il se peut que l'environnement d'initialisation inactif ne puisse pas s'initialiser. Ce problème est lié à la présence d'un point de montage non valide dans un jeu de données ZFS ou dans un jeu de données ZFS d'une zone de l'environnement d'initialisation.
Vérifiez qu'elle ne contient aucun point de montage temporaire erroné. Par exemple :
# zfs list -r -o name,mountpoint rpool/ROOT/newBE NAME MOUNTPOINT rpool/ROOT/newBE /.alt.tmp.b-VP.mnt/ rpool/ROOT/newBE/zones /.alt.tmp.b-VP.mnt/zones rpool/ROOT/newBE/zones/zonerootA /.alt.tmp.b-VP.mnt/zones/zonerootA
Le point de montage pour l'environnement d'initialisation root ZFS (rpool/ROOT/newBE) doit être /.
Par exemple :
# zfs inherit -r mountpoint rpool/ROOT/newBE # zfs set mountpoint=/ rpool/ROOT/newBE
Lorsque l'option d'initialisation d'un environnement d'initialisation spécifique est proposée, à l'invite de la PROM OpenBoot ou dans le menu GRUB, sélectionnez l'environnement d'initialisation dont les points de montage viennent d'être corrigés.
A partir de la version 10 10/08 de Solaris, vous pouvez utiliser la fonctionnalité Oracle Solaris Live Upgrade pour migrer ou mettre à niveau un système avec zones. A partir de la version Solaris 10 5/09, des configurations de zone sparse (entière ou root) supplémentaires sont prises en charge par Live Upgrade.
Cette section décrit comment configurer et installer un système avec zones de manière à ce qu'il soit mis à niveau et corrigé avec Live Upgrade à partir de la version 10 5/09. Si vous effectuez la migration vers un système de fichiers root ZFS sans zones, reportez-vous à la section Utilisation de Live Upgrade pour migrer ou mettre à jour un système de fichiers root ZFS (sans zones).
Tenez compte des points suivants lorsque vous utilisez Oracle Solaris Live Upgrade avec ZFS et les zones à partir de la version Solaris 10 5/09 :
A partir de la version Solaris 10 5/09, pour utiliser Live Upgrade avec des configurations de zone prises en charge, vous devez au préalable mettre à niveau votre système vers la version Solaris 10 5/09 ou une version supérieure à l'aide du programme de mise à niveau standard.
Ensuite, avec Live Upgrade, vous pouvez migrer votre système de fichiers root UFS comprenant des roots de zone vers un système de fichiers root ZFS ou mettre à niveau votre système de fichiers root ZFS et vos roots de zone ou leur appliquer un patch.
Vous ne pouvez pas migrer les configurations de zones non prises en charge à partir d'une version antérieure à Solaris 10 vers la version 10 5/09 de Solaris ou une version supérieure.
A partir de la version 10 5/09 de Solaris, si vous migrez ou configurez un système comportant des zones, vous devez vérifier les informations suivantes :
Vérifiez les configurations de zone prises en charge avant d'utiliser Oracle Solaris Live Upgrade pour migrer ou mettre à jour un système comportant des zones.
Migration d'un système de fichiers root UFS vers un système de fichiers root ZFS. Les configurations de root de zone suivantes sont prises en charge :
Dans un répertoire du système de fichiers root UFS
Dans le sous-répertoire d'un point de montage, dans le système de fichiers root UFS
Dans un système de fichiers root UFS avec un root de zone se trouvant dans le répertoire d'un système de fichiers root UFS ou dans le sous-répertoire d'un point de montage d'un système de fichiers root UFS et un pool ZFS non-root avec un root de zone
Un système de fichiers root UFS ayant un root de zone comme point de montage n'est pas pris en charge.
Migration ou mise à niveau d'un système de fichiers root ZFS. Les configurations de root de zone suivantes sont prises en charge :
Dans un système de fichiers se trouvant dans un pool root ou non-root ZFS. Par exemple, /zonepool/zones est acceptable. Dans certains cas, si un système de fichiers n'est pas fourni pour le root de zone avant l'opération Live Upgrade, un système de fichiers pour le root de zone (zoneds) est créé par Live Upgrade.
Dans un système de fichiers descendant ou le sous-répertoire d'un système de fichiers ZFS, à condition que différents chemins d'accès à la zone ne soient pas imbriqués. Par exemple, /zonepool/zones/zone1 et /zonepool/zones/zone1_dir sont acceptables.
Dans l'exemple suivant, zonepool/zones est un système de fichiers qui contient les roots de zone et rpool contient l'environnement d'initialisation ZFS :
zonepool zonepool/zones zonepool/zones/myzone rpool rpool/ROOT rpool/ROOT/myBE
Live Upgrade prend des instantanés et clone les zones contenues dans zonepool et dans l'environnement d'initialisation rpool si vous respectez la syntaxe suivante :
# lucreate -n newBE
L'environnement d'initialisation newBE sous rpool/root/newBE est créé. Lorsque ce dernier est activé, l'environnement d'initialisation newBE fournit l'accès aux composants zonepool.
Dans l'exemple qui précède, si /zonepool/zones était un sous-répertoire et non un autre système de fichiers, Live Upgrade le migrerait comme un composant du pool root, rpool.
La configuration de ZFS et de zone suivante n'est pas prise en charge :
Il n'est pas possible d'utiliser Live Upgrade pour créer un autre environnement d'initialisation lorsque l'environnement d'initialisation source comporte une zone non globale avec un chemin de zone défini sur le point de montage d'un système de fichiers de pool de niveau supérieur. Par exemple, si le pool zonepool a un système de fichiers monté comme /zonepool, il ne peut pas y avoir de zone non globale possédant un chemin de zone défini sur /zonepool.
N'ajoutez pas d'entrée de système de fichiers pour une zone non globale dans le fichier /etc/vfstab de la zone globale. Utilisez plutôt la fonction zonecfg add fs pour ajouter un système de fichiers à une zone non globale.
Informations de migration ou de mise à niveau de zones pour les environnements UFS et ZFS : vérifiez les éléments suivants, car ils sont susceptibles d'affecter la migration ou la mise à niveau d'un environnement ZFS ou UFS :
Si vous avez configuré les zones comme décrit à la section Utilisation de Live Upgrade pour migrer ou mettre à niveau un système avec zones (Solaris 10 10/08) dans la version Solaris 10 10/08 et si vous avez effectué une mise à niveau vers la version Solaris 10 5/09 ou une version ultérieure, vous pouvez effectuer une migration vers un système de fichiers root ZFS ou une mise à niveau vers Solaris 10 5/09 à l'aide de Live Upgrade.
Ne créez aucun root de zone dans les répertoires imbriqués, par exemple : zones/zone1 et zones/zone1/zone2. Sinon, le montage risque d'échouer lors de l'initialisation.
Après avoir procédé à l'installation initiale de la version Solaris 10 5/09 ou d'une version supérieure, suivez cette procédure pour créer un système de fichiers root ZFS. Suivez également la procédure suivante si vous avez utilisé la commande luupgrade pour mettre à niveau un système de fichiers root ZFS vers la version 10 5/09 ou une version supérieure de Solaris. Un environnement d'initialisation ZFS créé à l'aide de cette procédure peut être mis à niveau ou corrigé à l'aide d'un patch.
Dans la procédure ci-après, l'exemple de système Oracle Solaris 10 9/10 comporte un système de fichiers root ZFS et un jeu de données root de zone dans /rpool/zones. Un environnement d'initialisation ZFS nommé zfs2BE est créé et peut ensuite être mis à niveau ou corrigé à l'aide d'un patch.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.26G 59.7G 98K /rpool rpool/ROOT 4.64G 59.7G 21K legacy rpool/ROOT/zfsBE 4.64G 59.7G 4.64G / rpool/dump 1.00G 59.7G 1.00G - rpool/export 44K 59.7G 23K /export rpool/export/home 21K 59.7G 21K /export/home rpool/swap 1G 60.7G 16K - rpool/zones 633M 59.7G 633M /rpool/zones
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 zfszone running /rpool/zones native shared
# lucreate -n zfs2BE Analyzing system configuration. No name for current boot environment. INFORMATION: The current boot environment is not named - assigning name <zfsBE>. Current boot environment is named <zfsBE>. Creating initial configuration for primary boot environment <zfsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. Creating configuration for boot environment <zfs2BE>. Source boot environment is <zfsBE>. Creating boot environment <zfs2BE>. Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>. Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>. Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>. Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>. Population of boot environment <zfs2BE> successful. Creation of boot environment <zfs2BE> successful.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes yes yes no - zfs2BE yes no no yes - # luactivate zfs2BE A Live Upgrade Sync operation will be performed on startup of boot environment <zfs2BE>. . . .
# init 6
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.38G 59.6G 98K /rpool rpool/ROOT 4.72G 59.6G 21K legacy rpool/ROOT/zfs2BE 4.72G 59.6G 4.64G / rpool/ROOT/zfs2BE@zfs2BE 74.0M - 4.64G - rpool/ROOT/zfsBE 5.45M 59.6G 4.64G /.alt.zfsBE rpool/dump 1.00G 59.6G 1.00G - rpool/export 44K 59.6G 23K /export rpool/export/home 21K 59.6G 21K /export/home rpool/swap 1G 60.6G 16K - rpool/zones 17.2M 59.6G 633M /rpool/zones rpool/zones-zfsBE 653M 59.6G 633M /rpool/zones-zfsBE rpool/zones-zfsBE@zfs2BE 19.9M - 633M - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - zfszone installed /rpool/zones native shared
Suivez cette procédure pour mettre à niveau ou corriger un système de fichiers root ZFS avec roots de zone sur Solaris 10 5/09 ou version supérieure. Ces mises à jour peuvent consister en une mise à niveau du système ou en l'application de patchs.
Dans les étapes suivantes, zfs2BE est le nom de l'environnement d'initialisation mis à niveau ou corrigé.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 7.38G 59.6G 100K /rpool rpool/ROOT 4.72G 59.6G 21K legacy rpool/ROOT/zfs2BE 4.72G 59.6G 4.64G / rpool/ROOT/zfs2BE@zfs2BE 75.0M - 4.64G - rpool/ROOT/zfsBE 5.46M 59.6G 4.64G / rpool/dump 1.00G 59.6G 1.00G - rpool/export 44K 59.6G 23K /export rpool/export/home 21K 59.6G 21K /export/home rpool/swap 1G 60.6G 16K - rpool/zones 22.9M 59.6G 637M /rpool/zones rpool/zones-zfsBE 653M 59.6G 633M /rpool/zones-zfsBE rpool/zones-zfsBE@zfs2BE 20.0M - 633M -
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 5 zfszone running /rpool/zones native shared
# lucreate -n zfs2BE Analyzing system configuration. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. Creating configuration for boot environment <zfs2BE>. Source boot environment is <zfsBE>. Creating boot environment <zfs2BE>. Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>. Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>. Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>. Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>. Creating snapshot for <rpool/zones> on <rpool/zones@zfs10092BE>. Creating clone for <rpool/zones@zfs2BE> on <rpool/zones-zfs2BE>. Population of boot environment <zfs2BE> successful. Creation of boot environment <zfs2BE> successful.
Mettez à niveau le système.
# luupgrade -u -n zfs2BE -s /net/install/export/s10up/latest
L'option -s représente l'emplacement du média d'installation d'Oracle Solaris.
Ce processus peut être très long.
Pour un exemple complet du processus luupgrade, reportez-vous à l'Exemple 4-9.
Appliquez les patchs au nouvel environnement d'initialisation.
# luupgrade -t -n zfs2BE -t -s /patchdir patch-id-02 patch-id-04
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes yes yes no - zfs2BE yes no no yes - # luactivate zfs2BE A Live Upgrade Sync operation will be performed on startup of boot environment <zfs2BE>. . . .
# init 6
Exemple 4-9 Mise à niveau d'un système de fichiers root ZFS avec root de zone vers un système de fichiers root ZFS Oracle Solaris 10 9/10
Dans cet exemple, un environnement d'initialisation ZFS (zfsBE), créé sur un système Solaris 10 10/09 avec un système de fichiers root ZFS et un root de zone dans un pool non-root, est mis à niveau vers Solaris 10 9/10. Ce processus peut être long. L'environnement d'initialisation mis à niveau (zfs2BE) est ensuite activé. Assurez-vous que les zones sont installées et initialisées avant de tenter la mise à niveau.
Dans cet exemple, le pool zonepool, le jeu de données /zonepool/zones et la zone zfszone sont créés comme suit :
# zpool create zonepool mirror c2t1d0 c2t5d0 # zfs create zonepool/zones # chmod 700 zonepool/zones # zonecfg -z zfszone zfszone: No such zone configured Use 'create' to begin configuring a new zone. zonecfg:zfszone> create zonecfg:zfszone> set zonepath=/zonepool/zones zonecfg:zfszone> verify zonecfg:zfszone> exit # zoneadm -z zfszone install cannot create ZFS dataset zonepool/zones: dataset already exists Preparing to install zone <zfszone>. Creating list of files to copy from the global zone. Copying <8960> files to the zone. . . .
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 zfszone running /zonepool/zones native shared # lucreate -n zfsBE . . . # luupgrade -u -n zfsBE -s /net/install/export/s10up/latest 40410 blocks miniroot filesystem is <lofs> Mounting miniroot at </net/system/export/s10up/latest/Solaris_10/Tools/Boot> Validating the contents of the media </net/system/export/s10up/latest>. The media is a standard Solaris media. The media contains an operating system upgrade image. The media contains <Solaris> version <10>. Constructing upgrade profile to use. Locating the operating system upgrade program. Checking for existence of previously scheduled Live Upgrade requests. Creating upgrade profile for BE <zfsBE>. Determining packages to install or upgrade for BE <zfsBE>. Performing the operating system upgrade of the BE <zfsBE>. CAUTION: Interrupting this process may leave the boot environment unstable or unbootable. Upgrading Solaris: 100% completed Installation of the packages from this media is complete. Updating package information on boot environment <zfsBE>. Package information successfully updated on boot environment <zfsBE>. Adding operating system patches to the BE <zfsBE>. The operating system patch installation is complete. INFORMATION: The file </var/sadm/system/logs/upgrade_log> on boot environment <zfsBE> contains a log of the upgrade operation. INFORMATION: The file </var/sadm/system/data/upgrade_cleanup> on boot environment <zfsBE> contains a log of cleanup operations required. INFORMATION: Review the files listed above. Remember that all of the files are located on boot environment <zfsBE>. Before you activate boot environment <zfsBE>, determine if any additional system maintenance is required or if additional media of the software distribution must be installed. The Solaris upgrade of the boot environment <zfsBE> is complete. Installing failsafe Failsafe install is complete. # luactivate zfs2BE # init 6 # lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes no no yes - zfs2BE yes yes yes no - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - zfszone installed /zonepool/zones native shared
Suivez cette procédure pour migrer un système incluant un système de fichiers root UFS et un root de zone vers la version Solaris 10 5/09 ou version supérieure. Utilisez ensuite Live Upgrade pour créer un environnement d'initialisation ZFS.
Dans la procédure ci-après, l'exemple de nom de l'environnement d'initialisation UFS est c1t1d0s0, le root de zone UFS est zonepool/zfszone et l'environnement d'initialisation root est zfsBE.
Pour plus d'informations sur la mise à niveau d'un système exécutant Solaris 10, reportez-vous au Guide d’installation d’Oracle Solaris 10 1/13 : Live Upgrade et planification de la mise à niveau.
Pour plus d'informations sur la configuration requise pour le pool root, reportez-vous à la section Configuration requise pour l'installation d'Oracle Solaris et de Live Upgrade pour la prise en charge de ZFS.
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 zfszone running /zonepool/zones native shared
# lucreate -c c1t1d0s0 -n zfsBE -p rpool
Cette commande crée des jeux de données dans le pool root pour le nouvel environnement d'initialisation et copie l'environnement d'initialisation actuel (zones incluses) vers ces jeux de données.
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- c1t1d0s0 yes no no yes - zfsBE yes yes yes no - # luactivate zfsBE A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>. . . .
# init 6
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 6.17G 60.8G 98K /rpool rpool/ROOT 4.67G 60.8G 21K /rpool/ROOT rpool/ROOT/zfsBE 4.67G 60.8G 4.67G / rpool/dump 1.00G 60.8G 1.00G - rpool/swap 517M 61.3G 16K - zonepool 634M 7.62G 24K /zonepool zonepool/zones 270K 7.62G 633M /zonepool/zones zonepool/zones-c1t1d0s0 634M 7.62G 633M /zonepool/zones-c1t1d0s0 zonepool/zones-c1t1d0s0@zfsBE 262K - 633M - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - zfszone installed /zonepool/zones native shared
Exemple 4-10 Migration d'un système de fichiers root UFS avec root de zone vers un système de fichiers root ZFS
Dans cet exemple, un système Oracle Solaris 10 9/10 comprenant un système de fichiers root UFS, un root de zone (/uzone/ufszone), un pool non-root ZFS (pool) et un root de zone (/pool/zfszone) est migré vers un système de fichiers root ZFS. Assurez-vous que le pool root ZFS est créé et que les zones sont installées et initialisées avant de tenter la migration.
# zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared 2 ufszone running /uzone/ufszone native shared 3 zfszone running /pool/zones/zfszone native shared
# lucreate -c ufsBE -n zfsBE -p rpool Analyzing system configuration. No name for current boot environment. Current boot environment is named <zfsBE>. Creating initial configuration for primary boot environment <zfsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <ufsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <ufsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <zfsBE>. Source boot environment is <ufsBE>. Creating boot environment <zfsBE>. Creating file systems on boot environment <zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>. Populating file systems on boot environment <zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Copying root of zone <ufszone> to </.alt.tmp.b-EYd.mnt/uzone/ufszone>. Creating snapshot for <pool/zones/zfszone> on <pool/zones/zfszone@zfsBE>. Creating clone for <pool/zones/zfszone@zfsBE> on <pool/zones/zfszone-zfsBE>. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </rpool/ROOT>. Creating compare database for file system </>. Updating compare databases on boot environment <zfsBE>. Making boot environment <zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-DLd.mnt updating /.alt.tmp.b-DLd.mnt/platform/sun4u/boot_archive Population of boot environment <zfsBE> successful. Creation of boot environment <zfsBE> successful. # lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- ufsBE yes yes yes no - zfsBE yes no no yes - # luactivate zfsBE . . . # init 6 . . . # zfs list NAME USED AVAIL REFER MOUNTPOINT pool 628M 66.3G 19K /pool pool/zones 628M 66.3G 20K /pool/zones pool/zones/zfszone 75.5K 66.3G 627M /pool/zones/zfszone pool/zones/zfszone-ufsBE 628M 66.3G 627M /pool/zones/zfszone-ufsBE pool/zones/zfszone-ufsBE@zfsBE 98K - 627M - rpool 7.76G 59.2G 95K /rpool rpool/ROOT 5.25G 59.2G 18K /rpool/ROOT rpool/ROOT/zfsBE 5.25G 59.2G 5.25G / rpool/dump 2.00G 59.2G 2.00G - rpool/swap 517M 59.7G 16K - # zoneadm list -cv ID NAME STATUS PATH BRAND IP 0 global running / native shared - ufszone installed /uzone/ufszone native shared - zfszone installed /pool/zones/zfszone native shared