JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'administration Oracle Solaris ZFS     Oracle Solaris 10 1/13 Information Library (Français)
search filter icon
search icon

Informations document

Préface

1.  Système de fichiers Oracle Solaris ZFS (introduction)

2.  Mise en route d'Oracle Solaris ZFS

3.  Gestion des pools de stockage Oracle Solaris ZFS

4.  Installation et initialisation d'un système de fichiers root ZFS Oracle Solaris

Installation et initialisation d'un système de fichiers root Oracle Solaris ZFS (présentation)

Fonctions d'installation de ZFS

Configuration requise pour l'installation d'Oracle Solaris et de Live Upgrade pour la prise en charge de ZFS

Version Oracle Solaris requise

Configuration requise générale relative au pool root ZFS

Espace disque requis pour les pools root ZFS

Configuration requise pour le pool root ZFS

Installation d'un système de fichiers root ZFS (installation initiale d'Oracle Solaris)

Création d'un pool root ZFS mis en miroir (post-installation)

Installation d'un système de fichiers root ZFS (installation d'archive Flash Oracle Solaris)

Installation d'un système de fichiers root ZFS (installation JumpStart)

Mots-clés JumpStart pour ZFS

Exemples de profils JumpStart pour ZFS

Problèmes JumpStart pour ZFS

Migration d'un système de fichiers root ZFS ou mise à jour d'un système de fichiers root ZFS (Live Upgrade)

Problèmes de migration ZFS avec Live Upgrade

Utilisation de Live Upgrade pour migrer ou mettre à jour un système de fichiers root ZFS (sans zones)

Utilisation de Live Upgrade pour migrer ou mettre à niveau un système avec zones (Solaris 10 10/08)

Migration d'un système de fichiers root UFS avec roots de zone sur UFS vers un système de fichiers root ZFS (Solaris 10 10/08)

Configuration d'un système de fichiers root ZFS avec roots de zone sur ZFS (Solaris 10 10/08)

Mise à niveau ou application de patch à un système de fichiers root ZFS avec roots de zone sur ZFS (Solaris 10 10/08)

Utilisation d'Oracle Solaris Live Upgrade pour migrer ou mettre à jour un système avec zones (version Solaris 10 5/09 ou supérieure)

Système de fichiers ZFS pris en charge avec informations de configuration du root de zone (version Solaris 10 5/09 ou supérieure)

Création d'un environnement d'initialisation ZFS avec un système de fichiers root ZFS et une zone root (Solaris 10 5/09 ou version ultérieure)

Mise à niveau ou correction d'un système de fichiers root ZFS avec roots de zone (Solaris 10 5/09 ou version ultérieure)

Migration d'un système de fichiers root UFS avec root de zone vers un système de fichiers root ZFS (Solaris 10 5/09 ou version ultérieure)

Gestion de vos périphériques de swap et de vidage ZFS

Ajustement de la taille de vos périphériques de swap et de vidage ZFS

Personnalisation des volumes de swap et de vidage ZFS

Dépannage du périphérique de vidage ZFS

Initialisation à partir d'un système de fichiers root ZFS

Initialisation à partir d'un disque alternatif d'un pool root ZFS mis en miroir

SPARC : initialisation à partir d'un système de fichiers root ZFS

x86 : initialisation à partir d'un système de fichiers root ZFS

Résolution de problèmes de point de montage empêchant l'initialisation (Solaris 10 10/08)

Résolution des problèmes de point de montage ZFS

Initialisation à des fins de récupération dans un environnement root ZFS

Initialisation d'un système de fichiers ZFS en mode de secours

Initialisation d'un système de fichiers ZFS à partir d'un autre média

Restauration du pool root ZFS ou des instantanés du pool root

Remplacement d'un disque dans le pool root ZFS

Création d'instantanés de pool root

Recréation d'un pool root ZFS et restauration d'instantanés de pool root

Restauration des instantanés d'un pool root à partir d'une initialisation de secours

5.  Gestion des systèmes de fichiers Oracle Solaris ZFS

6.  Utilisation des instantanés et des clones ZFS Oracle Solaris

7.  Utilisation des ACL et des attributs pour protéger les fichiers Oracle Solaris ZFS

8.  Administration déléguée de ZFS dans Oracle Solaris

9.  Rubriques avancées Oracle Solaris ZFS

10.  Dépannage d'Oracle Solaris ZFS et récupération de pool

11.  Pratiques recommandées pour Oracle Solaris ZFS

A.  Descriptions des versions d'Oracle Solaris ZFS

Index

Migration d'un système de fichiers root ZFS ou mise à jour d'un système de fichiers root ZFS (Live Upgrade)

Les fonctions d'Oracle Live Upgrade concernant les composants UFS sont toujours disponibles et fonctionnent comme dans les versions précédentes de Solaris.

Voici l'ensemble des fonctions disponibles :

Pour plus d'informations sur l'installation d'Oracle Solaris et sur les fonctions de Live Upgrade, reportez-vous au Guide d’installation d’Oracle Solaris 10 1/13 : Live Upgrade et planification de la mise à niveau.

Pour plus d'informations sur la configuration requise de ZFS et de Live Upgrade, reportez-vous à la section Configuration requise pour l'installation d'Oracle Solaris et de Live Upgrade pour la prise en charge de ZFS.

Problèmes de migration ZFS avec Live Upgrade

Vérifiez la liste de problèmes suivants avant d'utiliser Live Upgrade pour migrer votre système de fichiers root UFS vers un système de fichiers root ZFS :

Utilisation de Live Upgrade pour migrer ou mettre à jour un système de fichiers root ZFS (sans zones)

Les exemples suivants illustrent la migration d'un système de fichiers root UFS vers un système de fichiers root ZFS et la mise à jour d'un système de fichiers root ZFS.

Si vous migrez un système comportant des zones ou effectuez sa mise à jour, reportez-vous aux sections suivantes :

Exemple 4-4 Utilisation de Live Upgrade pour migrer un système de fichiers root UFS vers un système de fichiers root ZFS

L'exemple suivant montre comment effectuer la migration d'un système de fichiers root UFS vers un système de fichiers root ZFS. L'environnement d'initialisation actuel, ufsBE, qui contient un système de fichiers root UFS, est identifié par l'option -c. Si vous n'incluez pas l'option -c, le nom actuel de l'environnement d'initialisation sera par défaut le nom du périphérique. Le nouvel environnement d'initialisation, zfsBE, est identifié par l'option -n. L'utilisation de la commande lucreate requiert l'existence préalable d'un pool de stockage ZFS.

Pour pouvoir mettre à niveau et initialiser le pool de stockage ZFS, vous devez le créer avec des tranches plutôt que des disques entiers. Avant de créer le nouveau pool, assurez-vous que les disques à utiliser dans le pool portent une étiquette SMI (VTOC) au lieu d'une étiquette EFI. Si le disque a été réétiqueté avec une étiquette SMI, assurez-vous que le processus d'étiquetage n'a pas modifié le schéma de partitionnement. Dans la plupart des cas, toute la capacité du disque doit se trouver dans la tranche destinée au pool root.

# zpool create rpool mirror c1t2d0s0 c2t1d0s0
# lucreate -c ufsBE -n zfsBE -p rpool
Analyzing system configuration.
No name for current boot environment.
Current boot environment is named <ufsBE>.
Creating initial configuration for primary boot environment <ufsBE>.
The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
PBE configuration successful: PBE name <ufsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
Comparing source boot environment <ufsBE> file systems with the file 
system(s) you specified for the new boot environment. Determining which 
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t2d0s0> is not a root device for any boot environment; cannot get BE ID.
Creating configuration for boot environment <zfsBE>.
Source boot environment is <ufsBE>.
Creating boot environment <zfsBE>.
Creating file systems on boot environment <zfsBE>.
Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>.
Populating file systems on boot environment <zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </rpool/ROOT>.
Creating compare database for file system </>.
Updating compare databases on boot environment <zfsBE>.
Making boot environment <zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-qD.mnt
updating /.alt.tmp.b-qD.mnt/platform/sun4u/boot_archive
Population of boot environment <zfsBE> successful.
Creation of boot environment <zfsBE> successful.

Une fois l'exécution de la commande lucreate terminée, utilisez la commande lustatus pour afficher l'état de l'environnement d'initialisation. Par exemple :

# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
ufsBE                      yes      yes    yes       no     -         
zfsBE                      yes      no     no        yes    -         

Examinez ensuite la liste des composants ZFS. Par exemple :

# zfs list
NAME                   USED  AVAIL  REFER  MOUNTPOINT
rpool                 7.17G  59.8G  95.5K  /rpool
rpool/ROOT            4.66G  59.8G    21K  /rpool/ROOT
rpool/ROOT/zfsBE      4.66G  59.8G  4.66G  /
rpool/dump               2G  61.8G    16K  -
rpool/swap             517M  60.3G    16K  -

Utilisez ensuite la commande luactivate pour activer le nouvel environnement d'initialisation ZFS. Par exemple :

# luactivate zfsBE
A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>.

**********************************************************************

The target boot environment has been activated. It will be used when you 
reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You 
MUST USE either the init or the shutdown command when you reboot. If you 
do not use either init or shutdown, the system will not boot using the 
target BE.

**********************************************************************
.
.
.
Modifying boot archive service
Activation of boot environment <zfsBE> successful.

Réinitialisez ensuite le système afin d'utiliser l'environnement d'initialisation ZFS.

# init 6

Confirmez que l'environnement d'initialisation ZFS est actif.

# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
ufsBE                      yes      no     no        yes    -         
zfsBE                      yes      yes    yes       no     -      

Si vous repassez à l'environnement d'initialisation UFS, vous devez réimporter tous les pools de stockage ZFS créés au cours de l'initialisation de l'environnement d'initialisation ZFS car ils ne sont pas disponibles automatiquement dans l'environnement d'initialisation UFS.

Lorsque l'environnement d'initialisation UFS est obsolète, vous pouvez le supprimer à l'aide de la commande ludelete.

Exemple 4-5 Utilisation de Live Upgrade pour créer un environnement d'initialisation ZFS à partir d'un environnement d'initialisation UFS (avec un /var distinct)

Dans la version Oracle Solaris 10 8/11, vous pouvez utiliser l'option lucreate -D pour indiquer que vous souhaitez qu'un autre système de fichiers /var soit créé lors de la migration d'un système de fichiers root UFS vers un système de fichiers root ZFS. Dans l'exemple suivant, l'environnement d'initialisation UFS existant est migré vers un environnement d'initialisation ZFS avec un système de fichiers /var distinct.

# lucreate -n zfsBE -p rpool -D /var
Determining types of file systems supported
Validating file system requests
Preparing logical storage devices
Preparing physical storage devices
Configuring physical storage devices
Configuring logical storage devices
Analyzing system configuration.
No name for current boot environment.
INFORMATION: The current boot environment is not named - assigning name <c0t0d0s0>.
Current boot environment is named <c0t0d0s0>.
Creating initial configuration for primary boot environment <c0t0d0s0>.
INFORMATION: No BEs are configured on this system.
The device </dev/dsk/c0t0d0s0> is not a root device for any boot environment; cannot get BE ID.
PBE configuration successful: PBE name <c0t0d0s0> PBE Boot Device </dev/dsk/c0t0d0s0>.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c0t1d0s0> is not a root device for any boot environment; cannot get BE ID.
Creating configuration for boot environment <zfsBE>.
Source boot environment is <c0t0d0s0>.
Creating file systems on boot environment <zfsBE>.
Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>.
Creating <zfs> file system for </var> in zone <global> on <rpool/ROOT/zfsBE/var>.
Populating file systems on boot environment <zfsBE>.
Analyzing zones.
Mounting ABE <zfsBE>.
Generating file list.
Copying data from PBE <c0t0d0s0> to ABE <zfsBE>
100% of filenames transferred
Finalizing ABE.
Fixing zonepaths in ABE.
Unmounting ABE <zfsBE>.
Fixing properties on ZFS datasets in ABE.
Reverting state of zones in PBE <c0t0d0s0>.
Making boot environment <zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-iaf.mnt
updating /.alt.tmp.b-iaf.mnt/platform/sun4u/boot_archive
Population of boot environment <zfsBE> successful.
Creation of boot environment <zfsBE> successful.
# luactivate zfsBE
A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>.
.
.
.
Modifying boot archive service
Activation of boot environment <zfsBE> successful.
# init 6

Passez en revue les systèmes de fichiers ZFS nouvellement créés. Par exemple :

# zfs list
NAME                   USED  AVAIL  REFER  MOUNTPOINT
rpool                 6.29G  26.9G  32.5K  /rpool
rpool/ROOT            4.76G  26.9G    31K  legacy
rpool/ROOT/zfsBE      4.76G  26.9G  4.67G  /
rpool/ROOT/zfsBE/var  89.5M  26.9G  89.5M  /var
rpool/dump             512M  26.9G   512M  -
rpool/swap            1.03G  28.0G    16K  -

Exemple 4-6 Utilisation de Live Upgrade pour créer un environnement d'initialisation ZFS à partir d'un environnement d'initialisation ZFS

La création d'un environnement d'initialisation ZFS à partir d'un environnement d'initialisation ZFS du même pool est très rapide car l'opération fait appel aux fonctions d'instantané et de clonage ZFS. Si l'environnement d'initialisation actuel se trouve dans le même pool ZFS, l'option -p est omise.

Si vous disposez de plusieurs environnements d'initialisation ZFS, procédez comme suit pour sélectionner l'environnement d'initialisation à partir duquel vous voulez initialiser le système :

Pour plus d'informations, reportez-vous à l'Exemple 4-12.

# lucreate -n zfs2BE
Analyzing system configuration.
No name for current boot environment.
INFORMATION: The current boot environment is not named - assigning name <zfsBE>.
Current boot environment is named <zfsBE>.
Creating initial configuration for primary boot environment <zfsBE>.
The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
Comparing source boot environment <zfsBE> file systems with the file 
system(s) you specified for the new boot environment. Determining which 
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
Creating configuration for boot environment <zfs2BE>.
Source boot environment is <zfsBE>.
Creating boot environment <zfs2BE>.
Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>.
Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>.
Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>.
Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>.
Population of boot environment <zfs2BE> successful.
Creation of boot environment <zfs2BE> successful.

Exemple 4-7 Mise à niveau de votre environnement d'initialisation ZFS (luupgrade)

Vous pouvez mettre à niveau votre environnement d'initialisation ZFS à l'aide de packages ou de patchs supplémentaires.

Le processus de base est le suivant :

# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
zfsBE                      yes      no     no        yes    -         
zfs2BE                     yes      yes    yes       no     -   
# luupgrade -p -n zfsBE -s /net/system/export/s10up/Solaris_10/Product SUNWchxge
Validating the contents of the media </net/install/export/s10up/Solaris_10/Product>.
Mounting the BE <zfsBE>.
Adding packages to the BE <zfsBE>.

Processing package instance <SUNWchxge> from </net/install/export/s10up/Solaris_10/Product>

Chelsio N110 10GE NIC Driver(sparc) 11.10.0,REV=2006.02.15.20.41
Copyright (c) 2010, Oracle and/or its affiliates. All rights reserved.

This appears to be an attempt to install the same architecture and
version of a package which is already installed.  This installation
will attempt to overwrite this package.

Using </a> as the package base directory.
## Processing package information.
## Processing system information.
   4 package pathnames are already properly installed.
## Verifying package dependencies.
## Verifying disk space requirements.
## Checking for conflicts with packages already installed.
## Checking for setuid/setgid programs.

This package contains scripts which will be executed with super-user
permission during the process of installing this package.

Do you want to continue with the installation of <SUNWchxge> [y,n,?] y
Installing Chelsio N110 10GE NIC Driver as <SUNWchxge>

## Installing part 1 of 1.
## Executing postinstall script.

Installation of <SUNWchxge> was successful.
Unmounting the BE <zfsBE>.
The package add to the BE <zfsBE> completed.

Vous pouvez aussi créer un nouvel environnement d'initialisation à mettre à jour avec une version ultérieure d'Oracle Solaris. Par exemple :

# luupgrade -u -n newBE -s /net/install/export/s10up/latest

L'option -s représente l'emplacement d'un mode d'installation Solaris.

Exemple 4-8 Création d'un environnement d'initialisation ZFS avec une archive Flash ZFS (luupgrade )

Dans la version Oracle Solaris 10 8/11, vous pouvez utiliser la commande luupgrade pour créer un environnement d'initialisation ZFS à partir d'une archive Flash ZFS. Le processus de base est comme décrit ci-après :

  1. Créez une archive Flash d'un système maître avec un environnement d'initialisation ZFS.

    Par exemple :

    master-system# flarcreate -n s10zfsBE /tank/data/s10zfsflar
    Full Flash
    Checking integrity...
    Integrity OK.
    Running precreation scripts...
    Precreation scripts done.
    Determining the size of the archive...
    The archive will be approximately 4.67GB.
    Creating the archive...
    Archive creation complete.
    Running postcreation scripts...
    Postcreation scripts done.
    
    Running pre-exit scripts...
    Pre-exit scripts done.
  2. Mettez l'archive Flash ZFS créée sur le système maître à disposition du système clone.

    Les emplacements d'archives Flash possibles sont un système de fichiers local, HTTP, FTP, NFS, etc.

  3. Créez un autre environnement d'initialisation ZFS vide sur le système clone.

    Utilisez l'option -s - pour indiquer qu'il s'agit d'un environnement d'initialisation vide destiné à être rempli avec le contenu de l'archive Flash ZFS.

    Par exemple :

    clone-system# lucreate -n zfsflashBE -s - -p rpool
    Determining types of file systems supported
    Validating file system requests
    Preparing logical storage devices
    Preparing physical storage devices
    Configuring physical storage devices
    Configuring logical storage devices
    Analyzing system configuration.
    No name for current boot environment.
    INFORMATION: The current boot environment is not named - assigning name <s10zfsBE>.
    Current boot environment is named <s10zfsBE>.
    Creating initial configuration for primary boot environment <s10zfsBE>.
    INFORMATION: No BEs are configured on this system.
    The device </dev/dsk/c0t0d0s0> is not a root device for any boot environment; cannot get BE ID.
    PBE configuration successful: PBE name <s10zfsBE> PBE Boot Device </dev/dsk/c0t0d0s0>.
    Updating boot environment description database on all BEs.
    Updating system configuration files.
    The device </dev/dsk/c0t1d0s0> is not a root device for any boot environment; cannot get BE ID.
    Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsflashBE>.
    Creation of boot environment <zfsflashBE> successful.
  4. Installez l'archive Flash ZFS dans l'autre environnement d'initialisation.

    Par exemple :

    clone-system# luupgrade -f -s /net/server/export/s10/latest -n zfsflashBE -a /tank/data/zfs10up2flar
    miniroot filesystem is <lofs>
    Mounting miniroot at </net/server/s10up/latest/Solaris_10/Tools/Boot>
    Validating the contents of the media </net/server/export/s10up/latest>.
    The media is a standard Solaris media.
    Validating the contents of the miniroot </net/server/export/s10up/latest/Solaris_10/Tools/Boot>.
    Locating the flash install program.
    Checking for existence of previously scheduled Live Upgrade requests.
    Constructing flash profile to use.
    Creating flash profile for BE <zfsflashBE>.
    Performing the operating system flash install of the BE <zfsflashBE>.
    CAUTION: Interrupting this process may leave the boot environment unstable or unbootable.
    Extracting Flash Archive: 100% completed (of 5020.86 megabytes)            
    The operating system flash install completed.
    updating /.alt.tmp.b-rgb.mnt/platform/sun4u/boot_archive
    
    The Live Flash Install of the boot environment <zfsflashBE> is complete.
  5. Activez l'environnement d'initialisation ZFS alternatif.

    clone-system# luactivate zfsflashBE
    A Live Upgrade Sync operation will be performed on startup of boot environment <zfsflashBE>.
    .
    .
    .
    Modifying boot archive service
    Activation of boot environment <zfsflashBE> successful.
  6. Réinitialisez le système.

    clone-system# init 6

Utilisation de Live Upgrade pour migrer ou mettre à niveau un système avec zones (Solaris 10 10/08)

Vous pouvez utiliser Live Upgrade pour migrer un système avec zones. Dans Solaris 10 10/08, les configurations prises en charge sont toutefois limitées. Si vous installez Solaris 10 5/09 ou effectuez une mise à niveau vers cette version, un nombre plus important de configurations de zone est pris en charge. Pour plus d'informations, reportez-vous à la section Utilisation d'Oracle Solaris Live Upgrade pour migrer ou mettre à jour un système avec zones (version Solaris 10 5/09 ou supérieure).

Cette section explique comment configurer et installer un système avec zones de manière à ce qu'il puisse être mis à jour et corrigé avec Live Upgrade. Si vous effectuez la migration vers un système de fichiers root ZFS sans zones, reportez-vous à la section Utilisation de Live Upgrade pour migrer ou mettre à jour un système de fichiers root ZFS (sans zones).

Si vous migrez un système avec zones ou configurez un système avec zones dans Solaris 10 10/08, consultez les procédures suivantes :

Suivez les procédures recommandées pour configurer des zones sur un système avec système de fichiers root ZFS pour vérifier que vous pouvez utiliser Live Upgrade sur ce système.

Migration d'un système de fichiers root UFS avec roots de zone sur UFS vers un système de fichiers root ZFS (Solaris 10 10/08)

La procédure suivante explique comment migrer d'un système de fichiers root UFS comportant des zones installées vers un système de fichiers root ZFS et une configuration de root de zone ZFS pouvant être mis à niveau ou patchés.

Dans les étapes suivantes, le pool porte le nom rpool et les noms des environnements d'initialisation débutent par S10BE* .

  1. Mettez le système à niveau à la version Solaris 10 10/08 si la version Solaris 10 exécutée est antérieure.

    Pour plus d'informations sur la mise à niveau d'un système exécutant Solaris 10, reportez-vous au Guide d’installation d’Oracle Solaris 10 1/13 : Live Upgrade et planification de la mise à niveau.

  2. Créez le pool root.
    # zpool create rpool mirror c0t1d0 c1t1d0

    Pour plus d'informations sur la configuration requise pour le pool root, reportez-vous à la section Configuration requise pour l'installation d'Oracle Solaris et de Live Upgrade pour la prise en charge de ZFS.

  3. Confirmez que les zones de l'environnement UFS sont initialisées.
  4. Créez le nouvel environnement d'initialisation ZFS.
    # lucreate -n s10BE2 -p rpool

    Cette commande crée des jeux de données dans le pool root pour le nouvel environnement d'initialisation et copie l'environnement d'initialisation actuel (zones incluses) vers ces jeux de données.

  5. Activez le nouvel environnement d'initialisation ZFS.
    # luactivate s10BE2

    Le système exécute désormais un système de fichiers root ZFS, mais les roots de zone sur UFS se trouvent toujours sur le système de fichiers root UFS. Les étapes suivantes sont nécessaires pour finaliser la migration des zones UFS vers une configuration ZFS prise en charge.

  6. Réinitialisez le système.
    # init 6
  7. Migrez les zones vers un environnement d'initialisation ZFS.
    1. Initialisez les zones.
    2. Créez un autre environnement d'initialisation ZFS dans le pool.
      # lucreate s10BE3
    3. Activez le nouvel environnement d'initialisation.
      # luactivate s10BE3
    4. Réinitialisez le système.
      # init 6

      Cette étape vérifie que l'environnement d'initialisation ZFS et les zones ont été initialisés.

  8. Résolvez les éventuels problèmes de point de montage.

    Etant donné la présence d'un bogue dans Live Upgrade, il se peut que l'environnement d'initialisation inactif ne puisse pas s'initialiser. Ce problème est lié à la présence d'un point de montage non valide dans un jeu de données ZFS ou dans un jeu de données ZFS d'une zone de l'environnement d'initialisation.

    1. Contrôlez la sortie zfs list.

      Vérifiez qu'elle ne contient aucun point de montage temporaire erroné. Par exemple :

      # zfs list -r -o name,mountpoint rpool/ROOT/s10up
      
      NAME                               MOUNTPOINT
      rpool/ROOT/s10up                   /.alt.tmp.b-VP.mnt/
      rpool/ROOT/s10up/zones             /.alt.tmp.b-VP.mnt//zones
      rpool/ROOT/s10up/zones/zonerootA   /.alt.tmp.b-VP.mnt/zones/zonerootA

      Le point de montage pour l'environnement d'initialisation root ZFS (rpool/ROOT/s10up) doit être /.

    2. Réinitialisez les points de montage pour l'environnement d'initialisation ZFS et ses jeux de données.

      Par exemple :

      # zfs inherit -r mountpoint rpool/ROOT/s10up
      # zfs set mountpoint=/ rpool/ROOT/s10up
    3. Réinitialisez le système.

      Lorsque l'option d'initialisation d'un environnement d'initialisation spécifique est proposée, à l'invite de la PROM OpenBoot ou dans le menu GRUB, sélectionnez l'environnement d'initialisation dont les points de montage viennent d'être corrigés.

Configuration d'un système de fichiers root ZFS avec roots de zone sur ZFS (Solaris 10 10/08)

La procédure suivante explique comment installer un système de fichiers root ZFS et une configuration root de zone ZFS pouvant être mis à niveau ou patchés. Dans cette configuration, les roots de zone ZFS sont créés sous forme de jeux de données ZFS.

Dans les étapes qui suivantes, le pool porte le nom rpool et l'environnement d'initialisation actif porte le nom s10BE. Le nom du jeu de données de zones peut être tout nom de jeu de données valide. Dans l'exemple suivant, le jeu de données des zones porte le nom zones.

  1. Installez le système avec un root ZFS en utilisant soit le programme d'installation en mode Texte interactif , soit la méthode d'installation JumpStart.

    Selon la méthode d'installation que vous choisissez, reportez-vous à la section Installation d'un système de fichiers root ZFS (installation initiale d'Oracle Solaris) ou à la section Installation d'un système de fichiers root ZFS (installation JumpStart).

  2. Initialisez le système à partir du pool root créé.
  3. Créez un jeu de données pour le regroupement des roots de zone.

    Par exemple :

    # zfs create -o canmount=noauto rpool/ROOT/s10BE/zones

    La définition de la valeur noauto pour la propriété canmount permet d'éviter que le jeu de données ne soit monté d'une manière autre que par l'action explicite de Live Upgrade et le code de démarrage du système.

  4. Montez le jeu de données de zones créé.
    # zfs mount rpool/ROOT/s10BE/zones

    Le jeu de données est monté sous /zones.

  5. Créez et montez un jeu de données pour chaque root de zone.
    # zfs create -o canmount=noauto rpool/ROOT/s10BE/zones/zonerootA
    # zfs mount rpool/ROOT/s10BE/zones/zonerootA
  6. Définissez les autorisations appropriées sur le répertoire root de la zone.
    # chmod 700 /zones/zonerootA
  7. Configurez la zone en indiquant le chemin de zone comme suit :
    # zonecfg -z zoneA
        zoneA: No such zone configured
        Use 'create' to begin configuring a new zone.
        zonecfg:zoneA> create
        zonecfg:zoneA> set zonepath=/zones/zonerootA

    Vous pouvez activer l'initialisation automatique des zones à l'initialisation du système en respectant la syntaxe suivante :

    zonecfg:zoneA> set autoboot=true
  8. Installez la zone.
    # zoneadm -z zoneA install
  9. Initialisez la zone.
    # zoneadm -z zoneA boot

Mise à niveau ou application de patch à un système de fichiers root ZFS avec roots de zone sur ZFS (Solaris 10 10/08)

Suivez cette procédure pour mettre à niveau ou patcher un système de fichiers root ZFS comportant des roots de zone. Ces mises à jour peuvent consister soit en une mise à niveau du système, soit en l'application de patchs.

Dans les étapes suivantes, l'environnement d'initialisation mis à niveau ou corrigé porte le nom newBE.

  1. Créez l'environnement d'initialisation à mettre à jour ou à corriger.
    # lucreate -n newBE

    L'environnement d'initialisation existant, y compris toutes les zones, est cloné. Un jeu de données est créé pour chaque jeu de données de l'environnement d'initialisation d'origine. Ils sont créés dans le même pool que le pool root actuel.

  2. Sélectionnez l'une des options suivantes pour mettre à niveau le système ou appliquer les patchs au nouvel environnement d'initialisation :
    • Mettez à niveau le système.

      # luupgrade -u -n newBE -s /net/install/export/s10up/latest

      L'option -s représente l'emplacement du média d'installation d'Oracle Solaris.

    • Appliquez les patchs au nouvel environnement d'initialisation.

       # luupgrade -t -n newBE -t -s /patchdir 139147-02 157347-14
  3. Activez le nouvel environnement d'initialisation.
    # luactivate newBE
  4. Procédez à l'initialisation à partir de l'environnement d'initialisation que vous venez d'activer.
    # init 6
  5. Résolvez les éventuels problèmes de point de montage.

    Etant donné la présence d'un bogue dans Live Upgrade, il se peut que l'environnement d'initialisation inactif ne puisse pas s'initialiser. Ce problème est lié à la présence d'un point de montage non valide dans un jeu de données ZFS ou dans un jeu de données ZFS d'une zone de l'environnement d'initialisation.

    1. Contrôlez la sortie zfs list.

      Vérifiez qu'elle ne contient aucun point de montage temporaire erroné. Par exemple :

      # zfs list -r -o name,mountpoint rpool/ROOT/newBE
      
      NAME                               MOUNTPOINT
      rpool/ROOT/newBE                   /.alt.tmp.b-VP.mnt/
      rpool/ROOT/newBE/zones             /.alt.tmp.b-VP.mnt/zones
      rpool/ROOT/newBE/zones/zonerootA   /.alt.tmp.b-VP.mnt/zones/zonerootA

      Le point de montage pour l'environnement d'initialisation root ZFS (rpool/ROOT/newBE) doit être /.

    2. Réinitialisez les points de montage pour l'environnement d'initialisation ZFS et ses jeux de données.

      Par exemple :

      # zfs inherit -r mountpoint rpool/ROOT/newBE
      # zfs set mountpoint=/ rpool/ROOT/newBE
    3. Réinitialisez le système.

      Lorsque l'option d'initialisation d'un environnement d'initialisation spécifique est proposée, à l'invite de la PROM OpenBoot ou dans le menu GRUB, sélectionnez l'environnement d'initialisation dont les points de montage viennent d'être corrigés.

Utilisation d'Oracle Solaris Live Upgrade pour migrer ou mettre à jour un système avec zones (version Solaris 10 5/09 ou supérieure)

A partir de la version 10 10/08 de Solaris, vous pouvez utiliser la fonctionnalité Oracle Solaris Live Upgrade pour migrer ou mettre à niveau un système avec zones. A partir de la version Solaris 10 5/09, des configurations de zone sparse (entière ou root) supplémentaires sont prises en charge par Live Upgrade.

Cette section décrit comment configurer et installer un système avec zones de manière à ce qu'il soit mis à niveau et corrigé avec Live Upgrade à partir de la version 10 5/09. Si vous effectuez la migration vers un système de fichiers root ZFS sans zones, reportez-vous à la section Utilisation de Live Upgrade pour migrer ou mettre à jour un système de fichiers root ZFS (sans zones).

Tenez compte des points suivants lorsque vous utilisez Oracle Solaris Live Upgrade avec ZFS et les zones à partir de la version Solaris 10 5/09 :

A partir de la version 10 5/09 de Solaris, si vous migrez ou configurez un système comportant des zones, vous devez vérifier les informations suivantes :

Système de fichiers ZFS pris en charge avec informations de configuration du root de zone (version Solaris 10 5/09 ou supérieure)

Vérifiez les configurations de zone prises en charge avant d'utiliser Oracle Solaris Live Upgrade pour migrer ou mettre à jour un système comportant des zones.

Création d'un environnement d'initialisation ZFS avec un système de fichiers root ZFS et une zone root (Solaris 10 5/09 ou version ultérieure)

Après avoir procédé à l'installation initiale de la version Solaris 10 5/09 ou d'une version supérieure, suivez cette procédure pour créer un système de fichiers root ZFS. Suivez également la procédure suivante si vous avez utilisé la commande luupgrade pour mettre à niveau un système de fichiers root ZFS vers la version 10 5/09 ou une version supérieure de Solaris. Un environnement d'initialisation ZFS créé à l'aide de cette procédure peut être mis à niveau ou corrigé à l'aide d'un patch.

Dans la procédure ci-après, l'exemple de système Oracle Solaris 10 9/10 comporte un système de fichiers root ZFS et un jeu de données root de zone dans /rpool/zones. Un environnement d'initialisation ZFS nommé zfs2BE est créé et peut ensuite être mis à niveau ou corrigé à l'aide d'un patch.

  1. Vérifiez les systèmes de fichiers ZFS existants.
    # zfs list
    NAME                   USED  AVAIL  REFER  MOUNTPOINT
    rpool                 7.26G  59.7G    98K  /rpool
    rpool/ROOT            4.64G  59.7G    21K  legacy
    rpool/ROOT/zfsBE      4.64G  59.7G  4.64G  /
    rpool/dump            1.00G  59.7G  1.00G  -
    rpool/export            44K  59.7G    23K  /export
    rpool/export/home       21K  59.7G    21K  /export/home
    rpool/swap               1G  60.7G    16K  -
    rpool/zones            633M  59.7G   633M  /rpool/zones
  2. Assurez-vous que les zones sont installées et initialisées.
    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       2 zfszone          running    /rpool/zones                   native   shared
  3. Créez l'environnement d'initialisation ZFS.
    # lucreate -n zfs2BE
    Analyzing system configuration.
    No name for current boot environment.
    INFORMATION: The current boot environment is not named - assigning name <zfsBE>.
    Current boot environment is named <zfsBE>.
    Creating initial configuration for primary boot environment <zfsBE>.
    The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
    PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
    Comparing source boot environment <zfsBE> file systems with the file 
    system(s) you specified for the new boot environment. Determining which 
    file systems should be in the new boot environment.
    Updating boot environment description database on all BEs.
    Updating system configuration files.
    Creating configuration for boot environment <zfs2BE>.
    Source boot environment is <zfsBE>.
    Creating boot environment <zfs2BE>.
    Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>.
    Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>.
    Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>.
    Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>.
    Population of boot environment <zfs2BE> successful.
    Creation of boot environment <zfs2BE> successful.
  4. Activez l'environnement d'initialisation ZFS.
    # lustatus
    Boot Environment           Is       Active Active    Can    Copy      
    Name                       Complete Now    On Reboot Delete Status    
    -------------------------- -------- ------ --------- ------ ----------
    zfsBE                      yes      yes    yes       no     -         
    zfs2BE                     yes      no     no        yes    -         
    # luactivate zfs2BE
    A Live Upgrade Sync operation will be performed on startup of boot environment <zfs2BE>.
    .
    .
    .
  5. Initialisez l'environnement d'initialisation ZFS.
    # init 6
  6. Confirmez que les systèmes de fichiers ZFS et les zones sont créés dans le nouvel environnement d'initialisation.
    # zfs list
    NAME                               USED  AVAIL  REFER  MOUNTPOINT
    rpool                             7.38G  59.6G    98K  /rpool
    rpool/ROOT                        4.72G  59.6G    21K  legacy
    rpool/ROOT/zfs2BE                 4.72G  59.6G  4.64G  /
    rpool/ROOT/zfs2BE@zfs2BE          74.0M      -  4.64G  -
    rpool/ROOT/zfsBE                  5.45M  59.6G  4.64G  /.alt.zfsBE
    rpool/dump                        1.00G  59.6G  1.00G  -
    rpool/export                        44K  59.6G    23K  /export
    rpool/export/home                   21K  59.6G    21K  /export/home
    rpool/swap                           1G  60.6G    16K  -
    rpool/zones                       17.2M  59.6G   633M  /rpool/zones
    rpool/zones-zfsBE                  653M  59.6G   633M  /rpool/zones-zfsBE
    rpool/zones-zfsBE@zfs2BE          19.9M      -   633M  -
    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       - zfszone          installed  /rpool/zones                   native   shared

Mise à niveau ou correction d'un système de fichiers root ZFS avec roots de zone (Solaris 10 5/09 ou version ultérieure)

Suivez cette procédure pour mettre à niveau ou corriger un système de fichiers root ZFS avec roots de zone sur Solaris 10 5/09 ou version supérieure. Ces mises à jour peuvent consister en une mise à niveau du système ou en l'application de patchs.

Dans les étapes suivantes, zfs2BE est le nom de l'environnement d'initialisation mis à niveau ou corrigé.

  1. Vérifiez les systèmes de fichiers ZFS existants.
    # zfs list
    NAME                               USED  AVAIL  REFER  MOUNTPOINT
    rpool                             7.38G  59.6G   100K  /rpool
    rpool/ROOT                        4.72G  59.6G    21K  legacy
    rpool/ROOT/zfs2BE                 4.72G  59.6G  4.64G  /
    rpool/ROOT/zfs2BE@zfs2BE          75.0M      -  4.64G  -
    rpool/ROOT/zfsBE                  5.46M  59.6G  4.64G  /
    rpool/dump                        1.00G  59.6G  1.00G  -
    rpool/export                        44K  59.6G    23K  /export
    rpool/export/home                   21K  59.6G    21K  /export/home
    rpool/swap                           1G  60.6G    16K  -
    rpool/zones                       22.9M  59.6G   637M  /rpool/zones
    rpool/zones-zfsBE                  653M  59.6G   633M  /rpool/zones-zfsBE
    rpool/zones-zfsBE@zfs2BE          20.0M      -   633M  -
  2. Assurez-vous que les zones sont installées et initialisées.
    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       5 zfszone          running    /rpool/zones                   native   shared
  3. Créez l'environnement d'initialisation ZFS à mettre à jour ou à corriger.
    # lucreate -n zfs2BE
    Analyzing system configuration.
    Comparing source boot environment <zfsBE> file systems with the file 
    system(s) you specified for the new boot environment. Determining which 
    file systems should be in the new boot environment.
    Updating boot environment description database on all BEs.
    Updating system configuration files.
    Creating configuration for boot environment <zfs2BE>.
    Source boot environment is <zfsBE>.
    Creating boot environment <zfs2BE>.
    Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>.
    Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>.
    Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>.
    Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>.
    Creating snapshot for <rpool/zones> on <rpool/zones@zfs10092BE>.
    Creating clone for <rpool/zones@zfs2BE> on <rpool/zones-zfs2BE>.
    Population of boot environment <zfs2BE> successful.
    Creation of boot environment <zfs2BE> successful.
  4. Sélectionnez l'une des options suivantes pour mettre à niveau le système ou appliquer les patchs au nouvel environnement d'initialisation :
    • Mettez à niveau le système.

      # luupgrade -u -n zfs2BE -s /net/install/export/s10up/latest

      L'option -s représente l'emplacement du média d'installation d'Oracle Solaris.

      Ce processus peut être très long.

      Pour un exemple complet du processus luupgrade, reportez-vous à l'Exemple 4-9.

    • Appliquez les patchs au nouvel environnement d'initialisation.

      # luupgrade -t -n zfs2BE -t -s /patchdir patch-id-02 patch-id-04
  5. Activez le nouvel environnement d'initialisation.
    # lustatus
    Boot Environment           Is       Active Active    Can    Copy      
    Name                       Complete Now    On Reboot Delete Status    
    -------------------------- -------- ------ --------- ------ ----------
    zfsBE                      yes      yes    yes       no     -         
    zfs2BE                     yes      no     no        yes    -    
    # luactivate zfs2BE
    A Live Upgrade Sync operation will be performed on startup of boot environment <zfs2BE>.
    .
    .
    .
  6. Initialisez le système à partir de l'environnement d'initialisation récemment activé.
    # init 6

Exemple 4-9 Mise à niveau d'un système de fichiers root ZFS avec root de zone vers un système de fichiers root ZFS Oracle Solaris 10 9/10

Dans cet exemple, un environnement d'initialisation ZFS (zfsBE), créé sur un système Solaris 10 10/09 avec un système de fichiers root ZFS et un root de zone dans un pool non-root, est mis à niveau vers Solaris 10 9/10. Ce processus peut être long. L'environnement d'initialisation mis à niveau (zfs2BE) est ensuite activé. Assurez-vous que les zones sont installées et initialisées avant de tenter la mise à niveau.

Dans cet exemple, le pool zonepool, le jeu de données /zonepool/zones et la zone zfszone sont créés comme suit :

# zpool create zonepool mirror c2t1d0 c2t5d0
# zfs create zonepool/zones
# chmod 700 zonepool/zones
# zonecfg -z zfszone
zfszone: No such zone configured
Use 'create' to begin configuring a new zone.
zonecfg:zfszone> create
zonecfg:zfszone> set zonepath=/zonepool/zones
zonecfg:zfszone> verify
zonecfg:zfszone> exit
# zoneadm -z zfszone install
cannot create ZFS dataset zonepool/zones: dataset already exists
Preparing to install zone <zfszone>.
Creating list of files to copy from the global zone.
Copying <8960> files to the zone.
.
.
.
# zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   2 zfszone          running    /zonepool/zones                native   shared

# lucreate -n zfsBE
.
.
.
# luupgrade -u -n zfsBE -s /net/install/export/s10up/latest
40410 blocks
miniroot filesystem is <lofs>
Mounting miniroot at </net/system/export/s10up/latest/Solaris_10/Tools/Boot>
Validating the contents of the media </net/system/export/s10up/latest>.
The media is a standard Solaris media.
The media contains an operating system upgrade image.
The media contains <Solaris> version <10>.
Constructing upgrade profile to use.
Locating the operating system upgrade program.
Checking for existence of previously scheduled Live Upgrade requests.
Creating upgrade profile for BE <zfsBE>.
Determining packages to install or upgrade for BE <zfsBE>.
Performing the operating system upgrade of the BE <zfsBE>.
CAUTION: Interrupting this process may leave the boot environment unstable 
or unbootable.
Upgrading Solaris: 100% completed
Installation of the packages from this media is complete.
Updating package information on boot environment <zfsBE>.
Package information successfully updated on boot environment <zfsBE>.
Adding operating system patches to the BE <zfsBE>.
The operating system patch installation is complete.
INFORMATION: The file </var/sadm/system/logs/upgrade_log> on boot 
environment <zfsBE> contains a log of the upgrade operation.
INFORMATION: The file </var/sadm/system/data/upgrade_cleanup> on boot 
environment <zfsBE> contains a log of cleanup operations required.
INFORMATION: Review the files listed above. Remember that all of the files 
are located on boot environment <zfsBE>. Before you activate boot 
environment <zfsBE>, determine if any additional system maintenance is 
required or if additional media of the software distribution must be 
installed.
The Solaris upgrade of the boot environment <zfsBE> is complete.
Installing failsafe
Failsafe install is complete.
# luactivate zfs2BE
# init 6
# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
zfsBE                      yes      no     no        yes    -         
zfs2BE                     yes      yes    yes       no     -         
# zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   - zfszone          installed  /zonepool/zones                native   shared

Migration d'un système de fichiers root UFS avec root de zone vers un système de fichiers root ZFS (Solaris 10 5/09 ou version ultérieure)

Suivez cette procédure pour migrer un système incluant un système de fichiers root UFS et un root de zone vers la version Solaris 10 5/09 ou version supérieure. Utilisez ensuite Live Upgrade pour créer un environnement d'initialisation ZFS.

Dans la procédure ci-après, l'exemple de nom de l'environnement d'initialisation UFS est c1t1d0s0, le root de zone UFS est zonepool/zfszone et l'environnement d'initialisation root est zfsBE.

  1. Mettez le système à niveau vers la version Solaris 10 5/09 ou un version ultérieure si la version Solaris 10 exécutée est antérieure.

    Pour plus d'informations sur la mise à niveau d'un système exécutant Solaris 10, reportez-vous au Guide d’installation d’Oracle Solaris 10 1/13 : Live Upgrade et planification de la mise à niveau.

  2. Créez le pool root.

    Pour plus d'informations sur la configuration requise pour le pool root, reportez-vous à la section Configuration requise pour l'installation d'Oracle Solaris et de Live Upgrade pour la prise en charge de ZFS.

  3. Confirmez que les zones de l'environnement UFS sont initialisées.
    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       2 zfszone          running    /zonepool/zones                native   shared
  4. Créez le nouvel environnement d'initialisation ZFS.
    # lucreate -c c1t1d0s0 -n zfsBE -p rpool

    Cette commande crée des jeux de données dans le pool root pour le nouvel environnement d'initialisation et copie l'environnement d'initialisation actuel (zones incluses) vers ces jeux de données.

  5. Activez le nouvel environnement d'initialisation ZFS.
    # lustatus
    Boot Environment           Is       Active Active    Can    Copy      
    Name                       Complete Now    On Reboot Delete Status    
    -------------------------- -------- ------ --------- ------ ----------
    c1t1d0s0                   yes      no     no        yes    -         
    zfsBE                      yes      yes    yes       no     -         #
    luactivate zfsBE       
    A Live Upgrade Sync operation will be performed on startup of boot environment <zfsBE>.
    .
    .
    .
  6. Réinitialisez le système.
    # init 6
  7. Confirmez que les systèmes de fichiers ZFS et les zones sont créés dans le nouvel environnement d'initialisation.
    # zfs list
    NAME                                USED  AVAIL  REFER  MOUNTPOINT
    rpool                              6.17G  60.8G    98K  /rpool
    rpool/ROOT                         4.67G  60.8G    21K  /rpool/ROOT
    rpool/ROOT/zfsBE                   4.67G  60.8G  4.67G  /
    rpool/dump                         1.00G  60.8G  1.00G  -
    rpool/swap                          517M  61.3G    16K  -
    zonepool                            634M  7.62G    24K  /zonepool
    zonepool/zones                      270K  7.62G   633M  /zonepool/zones
    zonepool/zones-c1t1d0s0             634M  7.62G   633M  /zonepool/zones-c1t1d0s0
    zonepool/zones-c1t1d0s0@zfsBE       262K      -   633M  -
    # zoneadm list -cv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       - zfszone          installed  /zonepool/zones                native   shared

Exemple 4-10 Migration d'un système de fichiers root UFS avec root de zone vers un système de fichiers root ZFS

Dans cet exemple, un système Oracle Solaris 10 9/10 comprenant un système de fichiers root UFS, un root de zone (/uzone/ufszone), un pool non-root ZFS (pool) et un root de zone (/pool/zfszone) est migré vers un système de fichiers root ZFS. Assurez-vous que le pool root ZFS est créé et que les zones sont installées et initialisées avant de tenter la migration.

# zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   2 ufszone          running    /uzone/ufszone                 native   shared
   3 zfszone          running    /pool/zones/zfszone            native   shared
# lucreate -c ufsBE -n zfsBE -p rpool
Analyzing system configuration.
No name for current boot environment.
Current boot environment is named <zfsBE>.
Creating initial configuration for primary boot environment <zfsBE>.
The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID.
PBE configuration successful: PBE name <ufsBE> PBE Boot Device </dev/dsk/c1t0d0s0>.
Comparing source boot environment <ufsBE> file systems with the file 
system(s) you specified for the new boot environment. Determining which 
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID.
Creating configuration for boot environment <zfsBE>.
Source boot environment is <ufsBE>.
Creating boot environment <zfsBE>.
Creating file systems on boot environment <zfsBE>.
Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>.
Populating file systems on boot environment <zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Copying root of zone <ufszone> to </.alt.tmp.b-EYd.mnt/uzone/ufszone>.
Creating snapshot for <pool/zones/zfszone> on <pool/zones/zfszone@zfsBE>.
Creating clone for <pool/zones/zfszone@zfsBE> on <pool/zones/zfszone-zfsBE>.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </rpool/ROOT>.
Creating compare database for file system </>.
Updating compare databases on boot environment <zfsBE>.
Making boot environment <zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-DLd.mnt
updating /.alt.tmp.b-DLd.mnt/platform/sun4u/boot_archive
Population of boot environment <zfsBE> successful.
Creation of boot environment <zfsBE> successful.
# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
ufsBE                      yes      yes    yes       no     -         
zfsBE                      yes      no     no        yes    -         
# luactivate zfsBE    
.
.
.
# init 6
.
.
.
# zfs list
NAME                                    USED  AVAIL  REFER  MOUNTPOINT
pool                                    628M  66.3G    19K  /pool
pool/zones                              628M  66.3G    20K  /pool/zones
pool/zones/zfszone                     75.5K  66.3G   627M  /pool/zones/zfszone
pool/zones/zfszone-ufsBE                628M  66.3G   627M  /pool/zones/zfszone-ufsBE
pool/zones/zfszone-ufsBE@zfsBE           98K      -   627M  -
rpool                                  7.76G  59.2G    95K  /rpool
rpool/ROOT                             5.25G  59.2G    18K  /rpool/ROOT
rpool/ROOT/zfsBE                       5.25G  59.2G  5.25G  /
rpool/dump                             2.00G  59.2G  2.00G  -
rpool/swap                              517M  59.7G    16K  -
# zoneadm list -cv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   - ufszone          installed  /uzone/ufszone                 native   shared
   - zfszone          installed  /pool/zones/zfszone            native   shared