Guide d'installation de Solaris 10 10/08 : Solaris Live Upgrade et planification de la mise à niveau

Création d'un environnement d'initialisation dans un nouveau pool racine

Si vous disposez déjà d'un pool racine ZFS, mais que vous souhaitez créer un environnement d'initialisation ZFS dans un nouveau pool, suivez la procédure ci-dessous. Une fois cet environnement créé, vous pouvez le mettre à niveau et l'activer selon vos besoins. L'option -p est nécessaire pour enregistrer l'emplacement du nouvel environnement d'initialisation. Pour pouvoir être initialisé et mis à niveau, le pool racine ZFS existant doit se trouver sur une tranche distincte.

ProcedureMéthode de création d'un environnement d'initialisation dans un nouveau pool racine ZFS

  1. Lors de la première exécution de Solaris Live Upgrade, suivez la procédure suivante.


    Remarque –

    Pour créer des environnements d'initialisation ZFS à l'aide de Solaris Live Upgrade, la version installée sur votre système ne doit pas être antérieure à la version Solaris 10 10/08, car les versions précédentes ne disposent pas des logiciels Solaris Live Upgrade et ZFS pour procéder à l'exécution de ces tâches.


    1. Au besoin, supprimez de votre système les packages Solaris Live Upgrade existants. Si vous procédez à une mise à niveau vers une nouvelle version, vous devez installer les packages correspondant à cette version.

      Les trois packages Solaris Live Upgrade SUNWluu, SUNWlur et SUNWlucfg contiennent le logiciel nécessaire à la mise à niveau à l'aide de Solaris Live Upgrade. Outre les fonctionnalités existantes, ils intègrent de nouvelles fonctions ainsi que des correctifs de bogues. La mise à niveau de la version cible échoue si vous ne supprimez pas les packages existants et si vous installez les nouveaux packages sur le système préalablement à l'utilisation de Solaris Live Upgrade.


      Remarque –

      Le package SUMWlucfg est un nouvel élément de la version Solaris 10 8/07. Si vous utilisez des packages Solaris Live Upgrade d'une version précédente, vous n'avez pas besoin de supprimer ce package.



      # pkgrm SUNWlucfg SUNWluu SUNWlur
      
    2. Installez les nouveaux packages Solaris Live Upgrade. Pour obtenir les instructions correspondantes, reportez-vous à la section Installation de Solaris Live Upgrade.

    3. Avant d'installer ou d'exécuter Solaris Live Upgrade, vous devez installer les patchs suivants. Ces patchs garantissent que vous disposez des tout derniers correctifs de bogues et fonctions de la version.

      Vérifiez que vous disposez de la dernière liste de patchs en visitant le site Web SunSolve. Recherchez l'info doc 206844 (auparavant nommé 72099 sur le site Web SunSolve.

      • Connectez-vous en tant que superutilisateur ou prenez un rôle équivalent.

      • Si vous stockez les patchs sur un disque local, créez un répertoire, tel que /var/tmp/lupatches, puis téléchargez les patchs dans ce répertoire.

      • Vous obtiendrez la liste des patchs sur le site Web SunSolve.

      • Allez dans le répertoire des patchs.


        # cd /var/tmp/lupatches
        
      • Installez les patchs en utilisant la commande patchadd.


        # patchadd patch_id
        

        id_patch correspond au(x) numéro(s) de patch(s). Séparez les noms de patch par un espace.


        Remarque –

        Vous devez appliquer les patchs dans l'ordre spécifié dans l'info doc 206844.


      • Réinitialisez le système si nécessaire. Certains patchs doivent être réinitialisés pour être effectifs.

        x86 uniquement. La réinitialisation du système est requise ou Solaris Live Upgrade échoue.


        # init 6
        
  2. Créez un pool racine ZFS.

    Pour pouvoir être initialisé et mis à niveau, le pool racine ZFS doit se trouver sur une tranche unique.


    # zpool create rpool2 c0t1d0s5
    
    rpool2

    Nom du nouveau pool racine ZFS.

    c0t1d0s5

    Spécifie l'emplacement de rpool2 sur la tranche initialisable, c0t1d0s5.

    Pour obtenir des informations sur la création d'un pool racine, reportez-vous au Guide d’administration Solaris ZFS.

  3. Créez le nouvel environnement d'initialisation.


    # lucreate [-c zfsBE] -n new-zfsBE -p rpool2
    
    -c zfsBE

    Attribue le nom zfsBE à l'environnement d'initialisation ZFS en cours.

    -n nouveau-zfsBE

    Attribue le nom à l'environnement d'initialisation à créer. Le nom doit être unique sur le système.

    -p rpool2

    Place le dernier environnement d'initialisation racine ZFS créé dans le pool racine ZFS défini dans rpool2.

    La création d'un environnement d'initialisation ZFS peut prendre un certain temps. Les données du système de fichiers sont copiées dans le nouveau pool racine ZFS. Une fois l'environnement d'initialisation inactif créé, vous pouvez utiliser la commande luupgrade ou luactivate pour mettre à niveau ou activer cet environnement.

  4. Si vous le souhaitez, vérifiez que la création de l'environnement d'initialisation est terminée.

    La commande lustatus génère un rapport relatif à l'état de la création et de l'activation de l'environnement d'initialisation.


    # lustatus
    boot environment   Is        Active  Active     Can	    Copy 
    Name               Complete  Now	 OnReboot   Delete	 Status 
    ------------------------------------------------------------------------ 
    zfsBE                       yes      yes     yes        no        - 
    new-zfsBE                   yes      no      no         yes        -
  5. Si vous le souhaitez, vérifiez les informations de base sur les jeux de données du système.

    L'exemple suivant affiche le nom de tous les jeux de données du système. Les points de montage répertoriés pour le nouvel environnement d'initialisation sont créés temporairement jusqu'à l'exécution de la commande luactivate. Les volumes rpool2/dump et rpool2/swap sont partagés entre le nouvel environnement d'initialisation et l'environnement d'initialisation ZFS rpool2.


    # zfs list
    NAME                             USED    AVAIL   REFER   MOUNTPOINT 
    rpool2                           9.29G    57.6G     20K   /rpool2 
    rpool2/ROOT/                     5.38G    57.6G     18K   /rpool2/ROOT 
    rpool2/ROOT/new-zfsBE            5.38G    57.6G    551M  /tmp/.new.luupdall.109859
    rpool2/dump                      3.99G        -   3.99G   - 
    rpool2/swap                      3.99G        -   3.99G   - 
    rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
    rpool/ROOT                       5.46G    57.6G     18K   legacy
    rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
    rpool/dump                       3.99G        -   3.99G   - 
    rpool/swap                       3.99G        -   3.99G   - 

    Vous pouvez à présent mettre à niveau et activer le nouvel environnement d'initialisation. Voir Exemple 13–3.


Exemple 13–3 Création d'un environnement d'initialisation dans un nouveau pool racine

Dans cet exemple, un pool racine ZFS, rpool, est créé sur une tranche distincte, c0t2s0s5. La commande lucreate crée un nouvel environnement d'initialisation ZFS, appelé zfsBE. L'option -p est nécessaire, car l'environnement d'initialisation est créé dans un pool racine différent.


# zpool create rpool C0t1d0s5
# zfs list
NAME                             USED    AVAIL   REFER   MOUNTPOINT 
rpool2                           9.29G    57.6G     20K   /rpool2 
rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
rpool/ROOT					             5.46G    57.6G     18K   legacy
rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
rpool/dump                       3.99G        -   3.99G   - 
rpool/swap                       3.99G        -   3.99G   - 

# lucreate -c rpool -n new-zfsBE -p rpool2
Analyzing system configuration.
Current boot environment is named <rpool>.
Creating initial configuration for primary boot environment <rpool>.
The device </dev/dsk/c0t0d0> is not a root device for any 
boot environment; cannot get BE ID.
PBE configuration successful: PBE name <rpool> PBE Boot 
Device </dev/dsk/rpool>.
Comparing source boot environment <rpool> file systems with 
the file system(s) you specified for the new boot environment. 
Determining which file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t0d0s0> is not a root device for any 
boot environment; cannot get BE ID.
Creating configuration for boot environment <new-zfsBE>.
Source boot environment is <rpool>.
Creating boot environment <new-zfsBE>.
Creating file systems on boot environment <new-zfsBE>.
Creating <zfs> file system for </> in zone <global> on 
<rpool2/ROOT/new-zfsBE>.
Populating file systems on boot environment <new-zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </>.
Making boot environment <new-zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-cBc.mnt
updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive
Population of boot environment <new-zfsBE> successful.
Creation of boot environment <new-zfsBE> successful.

# lustatus
boot environment   Is        Active  Active     Can	    Copy 
Name               Complete  Now	OnReboot   Delete	 Status 
------------------------------------------------------------------------ 
zfsBE                yes      yes     yes        no        - 
new-zfsBE            yes      no      no         yes        -
# zfs list
NAME                             USED    AVAIL   REFER   MOUNTPOINT 
rpool2                           9.29G    57.6G     20K   /rpool2 
rpool2/ROOT/                     5.38G    57.6G     18K   /rpool2/ROOT 
rpool2/ROOT/new-zfsBE            5.38G    57.6G    551M   /tmp/.new.luupdall.109859
rpool2/dump                      3.99G        -   3.99G   - 
rpool2/swap                      3.99G        -   3.99G   - 
rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
rpool/ROOT                       5.46G    57.6G     18K   legacy
rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
rpool/dump                       3.99G        -   3.99G   - 
rpool/swap                       3.99G        -   3.99G   -