Guide d'installation Oracle Solaris 10 9/10 : planification des mises à niveau et de Solaris Live Upgrade

ProcedureMéthode de création d'un environnement d'initialisation ZFS dans le même pool racine ZFS

  1. Avant d'exécuter Solaris Live Upgrade pour la première fois, vous devez installer les derniers packages de Solaris Live Upgrade à partir du support d'installation, ainsi que les patchs répertoriés dans l'info doc SunSolve 206844. Recherchez l'info doc 206844 (ex 72099) sur le site Web SunSolve.

    Ces patchs et packages garantissent que vous disposez des tous derniers correctifs de bogues et des nouvelles fonctions de la version. Veillez à installer tous les patchs destinés à votre système avant de créer un nouvel environnement d'initialisation.

    Les étapes suivantes décrivent les procédures de l'info doc SunSolve 206844.


    Remarque –

    Pour créer des environnements d'initialisation ZFS à l'aide de Solaris Live Upgrade, la version installée sur votre système ne doit pas être antérieure à la version Solaris 10 10/08, car les versions précédentes ne disposent pas des logiciels Solaris Live Upgrade et ZFS pour procéder à l'exécution de ces tâches.


    1. Connectez-vous en tant que superutilisateur ou prenez un rôle équivalent.


      Remarque –

      Les rôles contiennent des autorisations et des commandes privilégiées. Pour de plus amples informations sur les rôles, reportez-vous à la section Configuring RBAC (Task Map) du System Administration Guide: Security Services.


    2. Sur le site web de SunSolve, suivez les instructions contenues dans l'info doc 206844 pour supprimer et ajouter les packages Solaris Live Upgrade.

      Les trois packages Solaris Live Upgrade SUNWluu, SUNWlur et SUNWlucfg contiennent le logiciel nécessaire à la mise à niveau à l'aide de Solaris Live Upgrade. Outre les fonctionnalités existantes, ils intègrent de nouvelles fonctions ainsi que des correctifs de bogues. La mise à niveau de la version cible échoue si vous ne supprimez pas les packages existants et si vous installez les nouveaux packages sur le système préalablement à l'utilisation de Solaris Live Upgrade. Le package SUMWlucfg est un nouvel élément de la version Solaris 10 8/07. Si vous utilisez des packages Solaris Live Upgrade d'une version antérieure à Solaris 10 8/07, vous n'avez pas besoin de supprimer ce package.


      Remarque –

      Le package SUMWlucfg est un nouvel élément de la version Solaris 10 8/07. Si vous utilisez des packages Solaris Live Upgrade d'une version précédente, vous n'avez pas besoin de supprimer ce package.



      # pkgrm SUNWlucfg SUNWluu SUNWlur
      
    3. Installez les nouveaux packages Solaris Live Upgrade. Pour obtenir les instructions correspondantes, reportez-vous à la section Installation de Solaris Live Upgrade.

    4. Avant d'installer ou d'exécuter Solaris Live Upgrade, vous devez installer les patchs suivants. Ces patchs garantissent que vous disposez des tout derniers correctifs de bogues et fonctions de la version.

      Vérifiez que vous disposez de la dernière liste de patchs en visitant le site Web SunSolve. Recherchez l'info doc 206844 (ex 72099) sur le site Web SunSolve.

      • Si vous stockez les patchs sur un disque local, créez un répertoire, tel que /var/tmp/lupatches, puis téléchargez les patchs dans ce répertoire.

      • Vous obtiendrez la liste des patchs sur le site Web SunSolve.

      • Accédez au répertoire des patchs comme dans l'exemple ci-dessous.


        # cd /var/tmp/lupatches
        
      • Installez les patchs en utilisant la commande patchadd.


        # patchadd -M path-to-patches patch_id patch_id
        

        path-to-patches correspond au chemin vers le répertoire des patchs, par exemple /var/tmp/lupatches. id_patch correspond au(x) numéro(s) de patch(s). Séparez les noms de patch par un espace.


        Remarque –

        Vous devez appliquer les patchs dans l'ordre spécifié dans l'info doc 206844.


      • Réinitialisez le système si nécessaire. Certains patchs doivent être réinitialisés pour être effectifs.

        x86 uniquement. La réinitialisation du système est requise ou Solaris Live Upgrade échoue.


        # init 6
        

        Vous disposez maintenant des packages et des patchs nécessaires à la création d'un nouvel environnement d'initialisation.

  2. Créez le nouvel environnement d'initialisation.


    # lucreate [-c zfsBE] -n new-zfsBE
    
    -c zfsBE

    Attribue le nom zfsBE à l'environnement d'initialisation en cours. Cette option n'est pas obligatoire et n'est utilisée que pour créer un premier environnement d'initialisation. Si vous exécutez la commande lucreate pour la première fois et omettez l'option -c le logiciel crée pour vous un nom par défaut.

    -n nouveau-zfsBE

    Attribue le nom à l'environnement d'initialisation à créer. Le nom doit être unique sur le système.

    La création de l'environnement d'initialisation est quasi instantanée. Pour chaque jeu de données du pool racine ZFS en cours, un instantané est créé, après quoi un clone est créé pour chaque instantané. Les instantanés occupent de l'espace disque de manière raisonnable et ce processus nécessite très peu d'espace disque. Une fois l'environnement d'initialisation inactif créé, vous pouvez utiliser la commande luupgrade ou luactivate pour mettre à niveau ou activer cet environnement.

  3. Si vous le souhaitez, vérifiez que la création de l'environnement d'initialisation est terminée.

    La commande lustatus génère un rapport relatif à l'état de la création et de l'activation de l'environnement d'initialisation.


    # lustatus
    boot environment   Is        Active  Active     Can	    Copy 
    Name               Complete  Now	 OnReboot   Delete	 Status 
    ------------------------------------------------------------------------ 
    zfsBE               yes       yes     yes         no             -
    new-zfsBE           yes       no      no          yes            -
  4. Si vous le souhaitez, vérifiez les informations de base sur les jeux de données du système.

    Dans cet exemple, le pool racine ZFS se nomme rpool et le symbole représente un instantané. Les points de montage pour l'environnement d'initialisation sont créés temporairement jusqu'à l'exécution de la commande luactivate. Les volumes /dump et /swap sont partagés entre le pool racine ZFS et les environnements d'initialisation dans le pool racine.


    # zfs list
    NAME                                      USED  AVAIL  REFER  MOUNTPOINT 
    rpool                                    9.29G  57.6G    20K  /rpool 
    rpool/ROOT                               5.38G  57.6G    18K  /rpool/ROOT 
    rpool/ROOT/zfsBE                         5.38G  57.6G   551M  
    rpool/ROOT/zfsBE@new-zfsBE               66.5K      -   551M  -
    rpool/ROOT/new-zfsBE                     85.5K  57.6G   551M  /tmp/.alt.103197
    rpool/dump                               1.95G      -  1.95G  - 
    rpool/swap                               1.95G      -  1.95G  - 

    Vous pouvez à présent mettre à niveau et activer le nouvel environnement d'initialisation. Voir Exemple 13–2.


Exemple 13–2 Création d'un environnement d'initialisation dans le même pool racine ZFS

Les commandes suivantes créent un environnement d'initialisation ZFS, appelé new-zfsBE. L'option -p n'est pas nécessaire puisque l'environnement d'initialisation est créé dans le même pool racine.


# lucreate [-c zfsBE] -n new-zfsBE
Analyzing system configuration.
Comparing source boot environment <zfsBE> file systems with the file
system(s) you specified for the new boot environment. Determining which
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Creating configuration for boot environment new-zfsBE.
Source boot environment is zfsBE.
Creating boot environment new-zfsBE.
Cloning file systems from boot environment zfsBE to create 
boot environment new-zfsBE.
Creating snapshot for <rpool> on <rpool> Creating clone for <rpool>. 
Setting canmount=noauto for <rpool> in zone <global> on <rpool>. 
Population of boot environment zfsBE successful on <rpool>.
# lustatus
boot environment   Is        Active  Active     Can	    Copy 
Name               Complete  Now	   OnReboot   Delete	 Status 
------------------------------------------------------------------------ 
zfsBE               yes       yes     yes         no          - 
new-zfsBE           yes       no      no          yes         -
# zfs list
NAME                                      USED  AVAIL  REFER  MOUNTPOINT 
rpool                                    9.29G  57.6G    20K  /rpool 
rpool/ROOT                               5.38G  57.6G    18K  /rpool/ROOT 
rpool/ROOT/zfsBE                         5.38G  57.6G   551M  
rpool/ROOT/zfsBE@new-zfsBE               66.5K      -   551M  - 
rpool/ROOT/new-zfsBE                     85.5K  57.6G   551M  /tmp/.alt.103197 
rpool/dump                               1.95G      -  1.95G  - 
rpool/swap                               1.95G      -  1.95G  - 

Vous pouvez à présent mettre à niveau et activer le nouvel environnement d'initialisation. Pour obtenir un exemple de mise à niveau d'un environnement d'initialisation ZFS, reportez-vous à l'Exemple 13–1. Pour connaître d'autres utilisations de la commande luupgrade, reportez-vous au Chapitre 5Procédure de mise à niveau avec Solaris Live Upgrade – Tâches.


# luactivate new-zfsBE
**********************************************************************

The target boot environment has been activated. It will be used when you 
reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You 
MUST USE either the init or the shutdown command when you reboot. If you 
do not use either init or shutdown, the system will not boot using the 
target BE.

**********************************************************************
In case of a failure while booting to the target BE, the following process 
needs to be followed to fallback to the currently working boot environment:

1. Enter the PROM monitor (ok prompt).

2. Change the boot device back to the original boot environment by typing:

     setenv boot-device /pci@1f,0/pci@1/scsi@4,1/disk@2,0:a

3. Boot to the original boot environment by typing:

     boot

**********************************************************************

Modifying boot archive service
Activation of boot environment <new-zfsBE> successful.

Réinitialisez le système dans l'environnement d'initialisation ZFS.


# init 6
# svc.startd: The system is coming down.  Please wait.
svc.startd: 79 system services are now being stopped.
.
.
.