JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Administration d'Oracle Solaris 11.1 : Systèmes de fichiers ZFS     Oracle Solaris 11.1 Information Library (Français)
search filter icon
search icon

Informations document

Préface

1.  Système de fichiers Oracle Solaris ZFS (introduction)

2.  Mise en route d'Oracle Solaris ZFS

3.  Gestion des pools de stockage Oracle Solaris ZFS

4.  Gestion des composants du pool root ZFS

Gestion des composants du pool root ZFS (présentation)

Configuration requise pour le pool root ZFS

Espace de pool root ZFS requis

Configuration requise pour le pool root ZFS

Gestion de votre pool root ZFS

Installation d'un pool root ZFS

Mise à jour de l'environnement d'initialisation ZFS

Montage d'un environnement d'initialisation alternatif

Configuration d'un pool root mis en miroir (SPARC ou x86/VTOC)

Configuration d'un pool root mis en miroir (x86/EFI (GPT))

Remplacement d'un disque dans un pool root ZFS (SPARC ou x86/VTOC)

Remplacement d'un disque dans un pool root ZFS (SPARC ou x86/EFI (GPT))

Création d'un environnement d'initialisation dans un pool root différent (SPARC ou x86/VTOC)

Création d'un environnement d'initialisation dans un pool root différent (SPARC ou x86/EFI (GPT))

Gestion de vos périphériques de swap et de vidage ZFS

Ajustement de la taille de vos périphériques de swap et de vidage ZFS

Dépannage du périphérique de vidage ZFS

Initialisation à partir d'un système de fichiers root ZFS

Initialisation à partir d'un disque alternatif d'un pool root ZFS mis en miroir

Initialisation à partir d'un système de fichiers root ZFS sur un système SPARC

Initialisation à partir d'un système de fichiers root ZFS sur un système x86

Initialisation à des fins de récupération dans un environnement root ZFS

Initialisation du système à des fins de récupération

5.  Gestion des systèmes de fichiers Oracle Solaris ZFS

6.  Utilisation des instantanés et des clones ZFS Oracle Solaris

7.  Utilisation des ACL et des attributs pour protéger les fichiers Oracle Solaris ZFS

8.  Administration déléguée de ZFS dans Oracle Solaris

9.  Rubriques avancées Oracle Solaris ZFS

10.  Dépannage d'Oracle Solaris ZFS et récupération de pool

11.  Archivage des instantanés et récupération du pool root

12.  Pratiques recommandées pour Oracle Solaris ZFS

A.  Descriptions des versions d'Oracle Solaris ZFS

Index

Gestion de votre pool root ZFS

Les sections suivantes fournissent des informations sur l'installation et la mise à jour d'un pool root ZFS et la configuration d'un pool root en miroir.

Installation d'un pool root ZFS

La méthode d'installation Live CD d'Oracle Solaris 11 installe un pool root ZFS par défaut sur un disque unique. La méthode d'installation automatisée (AI, Automated Install) d'Oracle Solaris 11 vous permet de créer un manifeste AI pour identifier le disque ou les disques mis en miroir du pool root ZFS.

Le programme d'installation automatisée permet de disposer d'une certaine souplesse en installant un pool root ZFS sur le disque d'initialisation par défaut ou sur un disque cible que vous identifiez. Vous pouvez spécifier le périphérique logique, tel que c1t0d0, ou le chemin du périphérique physique. En outre, vous pouvez utiliser l'identificateur MPxIO ou l'ID du périphérique à installer.

Après l'installation, examinez les informations de votre pool de stockage ZFS et du système de fichiers, qui peuvent varier selon le type d'installation et les personnalisations. Par exemple :

# zpool status rpool
  pool: rpool
 state: ONLINE
  scan: none requested
config:

        NAME        STATE     READ WRITE CKSUM
        rpool       ONLINE       0     0     0
          mirror-0  ONLINE       0     0     0
            c8t0d0  ONLINE       0     0     0
            c8t1d0  ONLINE       0     0     0
# zfs list
NAME                      USED  AVAIL  REFER  MOUNTPOINT
rpool                    11.8G  55.1G  4.58M  /rpool
rpool/ROOT               3.57G  55.1G    31K  legacy
rpool/ROOT/solaris       3.57G  55.1G  3.40G  /
rpool/ROOT/solaris/var    165M  55.1G   163M  /var
rpool/VARSHARE           42.5K  55.1G  42.5K  /var/share
rpool/dump               6.19G  55.3G  6.00G  -
rpool/export               63K  55.1G    32K  /export
rpool/export/home          31K  55.1G    31K  /export/home
rpool/swap               2.06G  55.2G  2.00G  -

Passez en revue les informations sur l'environnement d'initialisation ZFS. Par exemple :

# beadm list
BE      Active Mountpoint Space Policy Created          
--      ------ ---------- ----- ------ -------          
solaris NR     /          3.75G static 2012-07-20 12:10 

Dans la sortie ci-dessus, le champ Active indique si l'environnement d'initialisation est actif maintenant (lettre N), actif lors de la réinitialisation (lettre R), ou les deux (lettres NR).

Mise à jour de l'environnement d'initialisation ZFS

L'environnement d'initialisation ZFS par défaut est nommé solaris par défaut. Vous pouvez identifier votre environnement d'initialisation en utilisant la commande beadm list. Par exemple :

# beadm list
BE      Active Mountpoint Space Policy Created          
--      ------ ---------- ----- ------ -------          
solaris NR     /          3.82G static 2012-07-19 13:44

Dans la sortie ci-dessus, NR signifie que l'environnement d'initialisation est actuellement actif et qu'il sera l'environnement d'initialisation actif après la réinitialisation.

La commande pkg update vous permet de mettre à jour votre environnement d'initialisation ZFS. Si vous mettez à jour votre environnement d'initialisation ZFS à l'aide de la commande pkg update, un nouvel environnement d'initialisation est créé et activé automatiquement, sauf si les mises à jour appliquées à l'environnement d'initialisation existant sont très minimes.

  1. Mettez à jour votre environnement d'initialisation ZFS.
    # pkg update
                                           
    
    DOWNLOAD                                  PKGS       FILES    XFER (MB)
    Completed                              707/707 10529/10529  194.9/194.9 
    .
    .
    .

    Un nouvel environnement d'initialisation, solaris-1, est automatiquement créé et activé.

    Vous pouvez également créer et activer un environnement d'initialisation de sauvegarde en dehors du processus de mise à jour.

    # beadm create solaris-1
    # beadm activate solaris-1
  2. Réinitialisez le système pour terminer l'activation de l'environnement d'initialisation. Ensuite, confirmez le statut de l'environnement d'initialisation.
    # init 6
    .
    .
    .
    # beadm list
    BE        Active Mountpoint Space  Policy Created          
    --        ------ ---------- -----  ------ -------          
    solaris   -      -          46.95M static 2012-07-20 10:25 
    solaris-1 NR     /          3.82G  static 2012-07-19 14:45 
  3. Si une erreur se produit lors de l'initialisation du nouvel environnement d'initialisation, activez et initialisez sur l'environnement d'initialisation précédent.
    # beadm activate solaris
    # init 6

Montage d'un environnement d'initialisation alternatif

A des fins de récupération, vous pouvez être amené à copier ou à accéder à un fichier à partir d'un autre environnement d'initialisation.

  1. Connectez-vous en tant qu'administrateur.
  2. Montez l'environnement d'initialisation alternatif.
    # beadm mount solaris-1 /mnt
  3. Accédez à l'environnement d'initialisation.
    # ls /mnt
    bin        export     media      pkg        rpool      tmp
    boot       home       mine       platform   sbin       usr
    dev        import     mnt        proc       scde       var
    devices    java       net        project    shared     
    doe        kernel     nfs4       re         src        
    etc        lib        opt        root       system     
  4. Démontez l'environnement d'initialisation alternatif lorsque vous avez terminé de l'utiliser.
    # beadm umount solaris-1

Configuration d'un pool root mis en miroir (SPARC ou x86/VTOC)

Si vous ne configurez pas de pool root mis en miroir au cours d'une installation automatique, vous pouvez facilement configurer un pool root mis en miroir après l'installation.

Pour plus d'informations sur le remplacement d'un disque dans un pool root, reportez-vous à la section Remplacement d'un disque dans un pool root ZFS (SPARC ou x86/VTOC).

  1. Affichez l'état du pool root actuel.
    # zpool status rpool
      pool: rpool
     state: ONLINE
     scrub: none requested
    config:
    
            NAME        STATE     READ WRITE CKSUM
            rpool       ONLINE       0     0     0
              c2t0d0s0  ONLINE       0     0     0
    
    errors: No known data errors
  2. Préparez un second disque à raccorder au pool root, si nécessaire.
  3. Connectez un deuxième disque pour configurer un pool root mis en miroir.
    # zpool attach rpool c2t0d0s0 c2t1d0s0
    Make sure to wait until resilver is done before rebooting.

    Le bon étiquetage et les blocs d'initialisation sont appliqués par défaut.

  4. Affichez l'état du pool root pour confirmer la fin de la réargenture.
    # zpool status rpool
    # zpool status rpool
      pool: rpool
     state: DEGRADED
    status: One or more devices is currently being resilvered.  The pool will
            continue to function in a degraded state.
    action: Wait for the resilver to complete.
            Run 'zpool status -v' to see device specific details.
      scan: resilver in progress since Fri Jul 20 13:39:53 2012
        938M scanned out of 11.7G at 46.9M/s, 0h3m to go
        938M resilvered, 7.86% done
    config:
    
            NAME          STATE     READ WRITE CKSUM
            rpool         DEGRADED     0     0     0
              mirror-0    DEGRADED     0     0     0
                c2t0d0s0  ONLINE       0     0     0
                c2t1d0s0  DEGRADED     0     0     0  (resilvering)

    Dans la sortie ci-dessus, le processus de réargenture n'est pas terminé. La réargenture est terminée lorsque des messages similaires aux suivants s'affichent :

    resilvered 11.6G in 0h5m with 0 errors on Fri Jul 20 13:57:25 2012
  5. Si vous connectez un disque plus grand, définissez la propriété autoexpand du pool pour étendre la taille de pool.

    Déterminez la taille du pool rpool existant :

    # zpool list rpool
    NAME   SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
    rpool  29.8G   152K  29.7G   0%  1.00x  ONLINE  -
    # zpool set autoexpand=on rpool

    Vérifiez la taille du pool rpool étendu :

    # zpool list rpool
    NAME   SIZE  ALLOC  FREE  CAP  DEDUP  HEALTH  ALTROOT
    rpool  279G   146K  279G   0%  1.00x  ONLINE  -
  6. Assurez-vous que vous pouvez initialiser correctement à partir du nouveau disque.

Configuration d'un pool root mis en miroir (x86/EFI (GPT))

Oracle Solaris 11.1 installe une étiquette EFI (GPT) par défaut sur un système x86 dans la plupart des cas.

Si vous ne configurez pas de pool root mis en miroir au cours d'une installation automatique, vous pouvez facilement configurer un pool root mis en miroir après l'installation.

Pour plus d'informations sur le remplacement d'un disque dans un pool root, reportez-vous à la section Remplacement d'un disque dans un pool root ZFS (SPARC ou x86/VTOC).

  1. Affichez l'état du pool root actuel.
    # zpool status rpool
     pool:  rpool
     state: ONLINE
      scan: none requested
    config:
    
            NAME      STATE     READ WRITE CKSUM
            rpool     ONLINE       0     0     0
              c2t0d0  ONLINE       0     0     0
    
    errors: No known data errors
  2. Connectez un deuxième disque pour configurer un pool root mis en miroir.
    # zpool attach rpool c2t0d0 c2t1d0
    Make sure to wait until resilver is done before rebooting.

    Le bon étiquetage et les blocs d'initialisation sont appliqués par défaut.

    Si vous avez personnalisé des partitions sur votre disque de pool root, vous pouvez avoir besoin d'une syntaxe similaire à la suivante :

    # zpool attach rpool c2t0d0s0 c2t1d0
  3. Affichez l'état du pool root pour confirmer la fin de la réargenture.
    # zpool status rpool
      pool: rpool
     state: DEGRADED
    status: One or more devices is currently being resilvered.  The pool will
            continue to function in a degraded state.
    action: Wait for the resilver to complete.
            Run 'zpool status -v' to see device specific details.
      scan: resilver in progress since Fri Jul 20 13:52:05 2012
        809M scanned out of 11.6G at 44.9M/s, 0h4m to go
        776M resilvered, 6.82% done
    config:
    
            NAME        STATE     READ WRITE CKSUM
            rpool       DEGRADED     0     0     0
              mirror-0  DEGRADED     0     0     0
                c8t0d0  ONLINE       0     0     0
                c8t1d0  DEGRADED     0     0     0  (resilvering)
    
    errors: No known data errors

    Dans la sortie ci-dessus, le processus de réargenture n'est pas terminé. La réargenture est terminée lorsque des messages similaires aux suivants s'affichent :

    resilvered 11.6G in 0h5m with 0 errors on Fri Jul 20 13:57:25 2012
  4. Si vous connectez un disque plus grand, définissez la propriété autoexpand du pool pour étendre la taille de pool.

    Déterminez la taille du pool rpool existant :

    # zpool list rpool
    NAME   SIZE  ALLOC   FREE  CAP  DEDUP  HEALTH  ALTROOT
    rpool  29.8G   152K  29.7G   0%  1.00x  ONLINE  -
    # zpool set autoexpand=on rpool

    Vérifiez la taille du pool rpool étendu :

    # zpool list rpool
    NAME   SIZE  ALLOC  FREE  CAP  DEDUP  HEALTH  ALTROOT
    rpool  279G   146K  279G   0%  1.00x  ONLINE  -
  5. Assurez-vous que vous pouvez initialiser correctement à partir du nouveau disque.

Remplacement d'un disque dans un pool root ZFS (SPARC ou x86/VTOC)

Vous pouvez être amené à remplacer un disque dans le pool root pour les raisons suivantes :

Dans une configuration de pool root en miroir, vous pouvez peut-être tenter un remplacement de disque sans avoir à initialiser à partir d'un autre média. Vous pouvez remplacer un disque défaillant en utilisant la commande zpool replace ou, si vous avez un disque supplémentaire, la commande zpool attach. Pour savoir comment connecter un autre disque et déconnecter un disque de pool root, reportez-vous aux étapes ci-dessous.

Sur les systèmes équipés de disques SATA, vous devez déconnecter le disque et en supprimer la configuration avant de tenter d'utiliser la commande zpool replace pour remplacer un disque défectueux. Par exemple :

# zpool offline rpool c1t0d0s0
# cfgadm -c unconfigure c1::dsk/c1t0d0
<Physically remove failed disk c1t0d0>
<Physically insert replacement disk c1t0d0>
# cfgadm -c configure c1::dsk/c1t0d0
<Confirm that the new disk has an SMI label and a slice 0>
# zpool online rpool c1t0d0s0
# zpool replace rpool c1t0d0s0
# zpool status rpool
<Let disk resilver before installing the boot blocks>
# bootadm install-bootloader

Avec certains composants matériels, il n'est pas nécessaire de connecter le disque, ni de reconfigurer son remplacement après son insertion.

  1. Connectez physiquement le disque de remplacement.
  2. Préparez un second disque à raccorder au pool root, si nécessaire.
  3. Associez le nouveau disque au pool root.

    Par exemple :

    # zpool attach rpool c2t0d0s0 c2t1d0s0
    Make sure to wait until resilver is done before rebooting.

    Le bon étiquetage et les blocs d'initialisation sont appliqués par défaut.

  4. Confirmez le statut du pool root.

    Par exemple :

    # zpool status rpool
      pool: rpool
     state: ONLINE
     scan: resilvered 11.7G in 0h5m with 0 errors on Fri Jul 20 13:45:37 2012
    config:
    
            NAME          STATE     READ WRITE CKSUM
            rpool         ONLINE       0     0     0
              mirror-0    ONLINE       0     0     0
                c2t0d0s0  ONLINE       0     0     0
                c2t1d0s0  ONLINE       0     0     0
    
    errors: No known data errors
  5. Vérifiez que vous pouvez initialiser à partir du nouveau disque une fois la réargenture terminée.

    Par exemple, sur un système SPARC :

    ok boot /pci@1f,700000/scsi@2/disk@1,0

    Identifiez les chemins d'accès du périphérique d'initialisation du nouveau disque et du disque actuel afin de tester l'initialisation à partir du disque de remplacement et afin de pouvoir initialiser manuellement le système à partir du disque existant, en cas de dysfonctionnement du disque de remplacement. Dans l'exemple suivant, le disque du pool root actuel (c2t0d0s0) est :

    /pci@1f,700000/scsi@2/disk@0,0

    Dans l'exemple suivant, le disque d'initialisation de remplacement est (c2t1d0s0) :

    boot /pci@1f,700000/scsi@2/disk@1,0
  6. Si le système s'initialise à partir du nouveau disque, déconnectez l'ancien disque.

    Par exemple :

    # zpool detach rpool c2t0d0s0
  7. Si vous connectez un disque plus grand, définissez la propriété autoexpand du pool pour étendre la taille de pool.
    # zpool set autoexpand=on rpool

    Ou étendez le périphérique :

    # zpool online -e c2t1d0s0
  8. Configurez le système de manière à ce qu'il s'initialise automatiquement à partir du nouveau disque.
    • SPARC : configurez le système de manière à ce qu'il s'initialise automatiquement à partir du nouveau disque, soit en utilisant la commande eeprom, soit en utilisant la commande setenv de la PROM d'initialisation.

    • x86 : reconfigurez le BIOS du système.

Remplacement d'un disque dans un pool root ZFS (SPARC ou x86/EFI (GPT))

Oracle Solaris 11.1 installe une étiquette EFI (GPT) par défaut sur un système x86 dans la plupart des cas.

Vous pouvez être amené à remplacer un disque dans le pool root pour les raisons suivantes :

Dans une configuration de pool root en miroir, vous pouvez peut-être tenter un remplacement de disque sans avoir à initialiser à partir d'un autre média. Vous pouvez remplacer un disque défaillant en utilisant la commande zpool replace ou, si vous avez un disque supplémentaire, la commande zpool attach. Pour savoir comment connecter un autre disque et déconnecter un disque de pool root, reportez-vous aux étapes ci-dessous.

Sur les systèmes équipés de disques SATA, vous devez déconnecter le disque et en supprimer la configuration avant de tenter d'utiliser la commande zpool replace pour remplacer un disque défectueux. Par exemple :

# zpool offline rpool c1t0d0
# cfgadm -c unconfigure c1::dsk/c1t0d0
<Physically remove failed disk c1t0d0>
<Physically insert replacement disk c1t0d0>
# cfgadm -c configure c1::dsk/c1t0d0
# zpool online rpool c1t0d0
# zpool replace rpool c1t0d0
# zpool status rpool
<Let disk resilver before installing the boot blocks>
x86# bootadm install-bootloader

Avec certains composants matériels, il n'est pas nécessaire de connecter le disque, ni de reconfigurer son remplacement après son insertion.

  1. Connectez physiquement le disque de remplacement.
  2. Associez le nouveau disque au pool root.

    Par exemple :

    # zpool attach rpool c2t0d0 c2t1d0
    Make sure to wait until resilver is done before rebooting.

    Le bon étiquetage et les blocs d'initialisation sont appliqués par défaut.

  3. Confirmez le statut du pool root.

    Par exemple :

    # zpool status rpool
      pool: rpool
     state: ONLINE
      scan: resilvered 11.6G in 0h5m with 0 errors on Fri Jul 20 12:06:07 2012
    config:
    
            NAME        STATE     READ WRITE CKSUM
            rpool       ONLINE       0     0     0
              mirror-0  ONLINE       0     0     0
                c2t0d0  ONLINE       0     0     0
                c2t1d0  ONLINE       0     0     0
    
    errors: No known data errors
  4. Vérifiez que vous pouvez initialiser à partir du nouveau disque une fois la réargenture terminée.
  5. Si le système s'initialise à partir du nouveau disque, déconnectez l'ancien disque.

    Par exemple :

    # zpool detach rpool c2t0d0
  6. Si vous connectez un disque plus grand, définissez la propriété autoexpand du pool pour étendre la taille de pool.
    # zpool set autoexpand=on rpool

    Ou étendez le périphérique :

    # zpool online -e c2t1d0
  7. Configurez le système de manière à ce qu'il s'initialise automatiquement à partir du nouveau disque.

    Reconfigurez le BIOS du système.

Création d'un environnement d'initialisation dans un pool root différent (SPARC ou x86/VTOC)

Si vous souhaitez recréer votre environnement d'initialisation existant dans un autre pool root, effectuez les étapes décrites dans cette procédure. Vous pouvez modifier les étapes en fonction de ce que vous souhaitez obtenir :deux pools root dotés d'environnements d'initialisation similaires ayant des périphériques de swap et de vidage indépendants ou un environnement d'initialisation dans un autre pool root qui partage les périphériques de swap et de vidage.

Une fois que vous avez activé et initialisé à partir du nouvel environnement d'initialisation dans le second pool root, celui-ci ne disposera d'aucune information sur l'environnement d'initialisation précédent du premier pool root. Si vous souhaitez revenir à l'environnement d'initialisation d'origine, réinitialisez le système manuellement à partir du disque d'initialisation du pool root d'origine.

  1. Créez un second pool root avec un disque étiqueté SMI (VTOC). Par exemple :
    # zpool create rpool2 c4t2d0s0
  2. Créez le nouvel environnement d'initialisation dans le deuxième pool root. Par exemple :
    # beadm create -p rpool2 solaris2
  3. Définissez la propriété bootfs sur le deuxième pool root. Par exemple :
    # zpool set bootfs=rpool2/ROOT/solaris2 rpool2
  4. Activez le nouvel environnement d'initialisation. Par exemple :
    # beadm activate solaris2
  5. Initialisez à partir du nouvel environnement d'initialisation mais veillez à le faire à partir du périphérique d'initialisation du deuxième pool root.
    ok boot disk2

    Votre système doit s'exécuter sous le nouvel environnement d'initialisation.

  6. Recréez le volume de swap. Par exemple :
    # zfs create -V 4g rpool2/swap
  7. Mettez à jour l'entrée /etc/vfstab pour le nouveau périphérique de swap. Par exemple :
    /dev/zvol/dsk/rpool2/swap       -               -               swap -     no      -
  8. Recréez le volume de vidage. Par exemple :
    # zfs create -V 4g rpool2/dump
  9. Réinitialisez le périphérique de vidage. Par exemple :
    # dumpadm -d /dev/zvol/dsk/rpool2/dump
  10. Réinitialisez votre périphérique d'initialisation par défaut afin qu'il démarre à partir du disque d'initialisation du deuxième pool root.
    • SPARC : configurez le système de manière à ce qu'il s'initialise automatiquement à partir du nouveau disque, soit en utilisant la commande eeprom, soit en utilisant la commande setenv de la PROM d'initialisation.

    • x86 : reconfigurez le BIOS du système.

  11. Réinitialisez pour effacer les périphériques de swap et de vidage du pool root d'origine.
    # init 6

Création d'un environnement d'initialisation dans un pool root différent (SPARC ou x86/EFI (GPT))

Oracle Solaris 11.1 installe une étiquette EFI (GPT) par défaut sur un système x86 dans la plupart des cas.

Si vous souhaitez recréer votre environnement d'initialisation existant dans un autre pool root, effectuez les étapes décrites dans cette procédure. Vous pouvez modifier les étapes en fonction de ce que vous souhaitez obtenir :deux pools root dotés d'environnements d'initialisation similaires ayant des périphériques de swap et de vidage indépendants ou un environnement d'initialisation dans un autre pool root qui partage les périphériques de swap et de vidage.

Une fois que vous avez activé et initialisé à partir du nouvel environnement d'initialisation dans le second pool root, celui-ci ne disposera d'aucune information sur l'environnement d'initialisation précédent du premier pool root. Si vous souhaitez revenir à l'environnement d'initialisation d'origine, réinitialisez le système manuellement à partir du disque d'initialisation du pool root d'origine.

  1. Créez le pool root de remplacement.
    # zpool create -B rpool2 c2t2d0

    Sinon, créez un pool root de remplacement mis en miroir. Par exemple :

    # zpool create -B rpool2 mirror c2t2d0 c2t3d0
  2. Créez le nouvel environnement d'initialisation dans le deuxième pool root. Par exemple :
    # beadm create -p rpool2 solaris2
  3. Appliquez les informations d'initialisation au second pool root. Par exemple :
    # bootadm install-bootloader -P rpool2
  4. Définissez la propriété bootfs sur le deuxième pool root. Par exemple :
    # zpool set bootfs=rpool2/ROOT/solaris2 rpool2
  5. Activez le nouvel environnement d'initialisation. Par exemple :
    # beadm activate solaris2
  6. Initialisez à partir du nouvel environnement d'initialisation.
    • SPARC : configurez le système de manière à ce qu'il s'initialise automatiquement à partir du nouveau disque, soit en utilisant la commande eeprom, soit en utilisant la commande setenv de la PROM d'initialisation.

    • x86 : reconfigurez le BIOS du système.

    Votre système doit s'exécuter sous le nouvel environnement d'initialisation.

  7. Recréez le volume de swap. Par exemple :
    # zfs create -V 4g rpool2/swap
  8. Mettez à jour l'entrée /etc/vfstab pour le nouveau périphérique de swap. Par exemple :
    /dev/zvol/dsk/rpool2/swap       -               -               swap -     no      -
  9. Recréez le volume de vidage. Par exemple :
    # zfs create -V 4g rpool2/dump
  10. Réinitialisez le périphérique de vidage. Par exemple :
    # dumpadm -d /dev/zvol/dsk/rpool2/dump
  11. Réinitialisez pour effacer les périphériques de swap et de vidage du pool root d'origine.
    # init 6