JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'installation d'Oracle Solaris 10 1/13 : Live Upgrade et planification de la mise à niveau     Oracle Solaris 10 1/13 Information Library (Français)
search filter icon
search icon

Informations document

Préface

Partie I Mise à niveau avec Live Upgrade

1.  Emplacement des informations de planification pour l'installation d'Oracle Solaris

2.  Live Upgrade (présentation)

3.  Live Upgrade (planification)

4.  Utilisation de Live Upgrade pour créer un environnement d'initialisation (tâches)

5.  Mise à niveau à l'aide de Live Upgrade (tâches)

6.  Reprise sur échec : restauration de l'environnement d'initialisation d'origine (Tâches)

7.  Maintenance des environnements d'initialisation de Live Upgrade (tâches)

8.  Mise à niveau du système d'exploitation Oracle Solaris sur un système comportant des zones non globales

9.  Exemples pour Live Upgrade

Partie II Mise à niveau et migration avec Live Upgrade vers un pool root ZFS

10.  Live Upgrade et ZFS (présentation)

11.  Live Upgrade pour ZFS (planification)

12.  Création d'un environnement d'initialisation pour des pools root ZFS

Migration d'un système de fichiers UFS vers un système de fichiers ZFS

Migration d'un système de fichiers UFS vers un système de fichiers ZFS

Création d'un environnement d'initialisation dans le même pool root ZFS

Création d'un environnement d'initialisation ZFS dans le même pool root ZFS

Création d'un environnement d'initialisation dans un nouveau pool root

Création d'un environnement d'initialisation dans un nouveau pool root ZFS

Création d'un environnement d'initialisation à partir d'une source autre que le système en cours de fonctionnement

Restauration d'un environnement d'initialisation ZFS

13.  Live Upgrade pour ZFS comportant des zones non globales

Partie III Annexes

A.  Références de commandes Live Upgrade

B.  Dépannage (tâches)

C.  Conditions supplémentaires de gestion des packages SVR4 - Références

D.  Utilisation de l'analyseur de patchs lors de la mise à niveau (Tâches)

Glossaire

Index

Création d'un environnement d'initialisation dans un nouveau pool root

Si vous disposez déjà d'un pool root ZFS, mais que vous souhaitez créer un environnement d'initialisation ZFS dans un nouveau pool, suivez la procédure ci-dessous. Une fois cet environnement créé, vous pouvez le mettre à niveau et l'activer selon vos besoins. L'option -p est nécessaire pour enregistrer l'emplacement du nouvel environnement d'initialisation. Pour pouvoir être initialisé et mis à niveau, le pool root ZFS existant doit se trouver sur une tranche distincte.

Création d'un environnement d'initialisation dans un nouveau pool root ZFS

  1. Avant d'exécuter Live Upgrade pour la première fois, vous devez installer les derniers packages de Live Upgrade à partir du média d'installation, ainsi que les patchs répertoriés dans le document d'information. Recherchez le document d'information 1004881.1 - Live Upgrade Software Patch Requirements (anciennement 206844) sur le site Web My Oracle Support.

    Ces patchs et packages garantissent que vous disposez des tous derniers correctifs de bogues et des nouvelles fonctions de la version. Veillez à installer tous les patchs destinés à votre système avant de créer un nouvel environnement d'initialisation.

    Les étapes suivantes décrivent les procédures du document d'information 1004881.1 - Live Upgrade Software Patch Requirements (anciennement 206844) sur My Oracle Support.


    Remarque - Pour créer des environnements d'initialisation ZFS à l'aide de Live Upgrade, la version installée sur votre système ne doit pas être antérieure à la version Solaris 10 10/08. Les versions précédentes ne disposent pas des logiciels Live Upgrade et ZFS pour procéder à l'exécution de ces tâches.


    1. Connectez-vous en tant que superutilisateur ou prenez un rôle équivalent.

      Remarque - Les rôles contiennent des autorisations et des commandes privilégiées. Pour plus d'informations sur les rôles, reportez-vous à la section Configuring RBAC (Task Map) du manuel System Administration Guide: Security Services.


    2. A partir du site Web My Oracle Support, suivez les instructions figurant dans le document d'information 1004881.1 pour supprimer et ajouter les packages Live Upgrade.

      Les trois packages Live Upgrade, SUNWluu, SUNWlur et SUNWlucfg contiennent le logiciel nécessaire à la mise à niveau à l'aide de Live Upgrade. Outre les fonctionnalités existantes, ils intègrent de nouvelles fonctions ainsi que des correctifs de bogues. La mise à niveau de la version cible échoue si vous ne supprimez pas les packages existants et si vous installez les nouveaux packages sur le système préalablement à l'utilisation de Live Upgrade. Le package SUMWlucfg est un nouvel élément de la version Solaris 10 8/07. Si vous utilisez des packages Live Upgrade d'une version antérieure à Solaris 10 8/07, vous n'avez pas besoin de supprimer ce package.


      Remarque - Le package SUMWlucfg est un nouvel élément de la version Solaris 10 8/07. Si vous utilisez des packages Live Upgrade d'une version précédente, vous n'avez pas besoin de supprimer ce package.


      # pkgrm SUNWlucfg SUNWluu SUNWlur
    3. Installez les nouveaux packages Live Upgrade. Pour obtenir des instructions, reportez-vous à la section Installation de Live Upgrade.
    4. Avant d'installer ou d'exécuter Live Upgrade, vous devez installer les patchs suivants. Ces patchs garantissent que vous disposez des tout derniers correctifs de bogues et fonctions de la version.

      Vérifiez que vous possédez la liste des derniers patchs mis à jour en consultant le site My Oracle Support. Recherchez le document d'information 1004881.1 - Live Upgrade Software Patch Requirements (anciennement 206844) sur My Oracle Support.

      • Si vous stockez les patchs sur un disque local, créez un répertoire, tel que /var/tmp/lupatches, puis téléchargez les patchs dans ce répertoire.

      • Obtenez la liste des patchs à partir du site Web My Oracle Support.

      • Accédez au répertoire des patchs comme dans l'exemple ci-dessous.

        # cd /var/tmp/lupatches
      • Installez les patchs en utilisant la commande patchadd.

        # patchadd -M path-to-patches patch_id patch_id

        path-to-patches correspond au chemin vers le répertoire des patchs, par exemple /var/tmp/lupatches. patch_id correspond au(x) numéro(s) de patch(s). Séparez les noms de patch par un espace.


        Remarque - Les patchs doivent être appliqués dans l'ordre indiqué dans le document d'information 1004881.1 - Live Upgrade Software Patch Requirements (anciennement 206844) sur My Oracle Support.


      • Réinitialisez le système si nécessaire. Certains patchs doivent être réinitialisés pour être effectifs.

        x86 uniquement : la réinitialisation du système est requise ou Live Upgrade échoue.

        # init 6

        Vous disposez maintenant des packages et des patchs nécessaires à une migration réussie.

  2. Créez un pool root ZFS.

    Pour pouvoir être initialisé et mis à niveau, le pool root ZFS doit se trouver sur une tranche unique.

    # zpool create rpool2 c0t1d0s5
    rpool2

    Nom du nouveau pool root ZFS.

    c0t1d0s5

    Spécifie l'emplacement de rpool2 sur la tranche amorçable c0t1d0s5.

    Pour obtenir des informations sur la création d'un pool root, reportez-vous au Guide d’administration Oracle Solaris ZFS.

  3. Créez le nouvel environnement d'initialisation.
    # lucreate [-c zfsBE] -n new-zfsBE -p rpool2
    zfsBE

    Nom de l'environnement d'initialisation ZFS actuel.

    new-zfsBE

    Nom de l'environnement d'initialisation à créer. Le nom doit être unique sur le système.

    -p rpool2

    Place le dernier environnement d'initialisation root ZFS créé dans le pool root ZFS défini dans rpool2.

    La création d'un environnement d'initialisation ZFS peut prendre un certain temps. Les données du système de fichiers sont copiées dans le nouveau pool root ZFS. Une fois l'environnement d'initialisation inactif créé, vous pouvez exécuter la commande luupgrade ou luactivate pour mettre à niveau ou activer cet environnement.

  4. Si vous le souhaitez, vérifiez que la création de l'environnement d'initialisation est terminée.

    La commande lustatus génère un rapport relatif à l'état de la création et de l'activation de l'environnement d'initialisation.

    # lustatus
    boot environment   Is        Active  Active     Can        Copy 
    Name               Complete  Now     OnReboot   Delete     Status 
    ------------------------------------------------------------------------ 
    zfsBE                       yes      yes     yes        no        - 
    new-zfsBE                   yes      no      no         yes        -
  5. Si vous le souhaitez, vérifiez les informations de base sur les jeux de données du système.

    L'exemple suivant affiche le nom de tous les jeux de données du système. Les points de montage répertoriés pour le nouvel environnement d'initialisation sont créés temporairement jusqu'à l'exécution de la commande luactivate. Les volumes rpool2/dump et rpool2/swap sont partagés entre le nouvel environnement d'initialisation et l'environnement d'initialisation ZFS rpool2.

    # zfs list
    NAME                                   USED  AVAIL  REFER  MOUNTPOINT
    rpool                                     11.4G  2.95G    31K  /rpool
    rpool/ROOT                                4.34G  2.95G    31K  legacy
    rpool/ROOT/new-zfsBE                      4.34G  2.95G  4.34G  /
    rpool/dump                                2.06G  5.02G    16K  -
    rpool/swap                                5.04G  7.99G    16K  -

    Vous pouvez à présent mettre à niveau et activer le nouvel environnement d'initialisation.

Exemple 12-3 Création d'un environnement d'initialisation dans un nouveau pool root

Dans cet exemple, un pool root ZFS, newPool, est créé sur une tranche distincte, c0t1s0s5. La commande lucreate crée un nouvel environnement d'initialisation ZFS, new-zfsbe. L'option -p est nécessaire, car l'environnement d'initialisation est créé dans un pool root différent.

# zpool create newPool C0t2d0s5
# zfs list
NAME                                   USED  AVAIL  REFER  MOUNTPOINT
newPool                          92.5K  18.7G    31K  /newPool 
rpool                                     11.4G  2.95G    31K  /rpool
rpool/ROOT                                4.34G  2.95G    31K  legacy
rpool/ROOT/zfsBE                      4.34G  2.95G  4.34G  /
rpool/dump                                2.06G  5.02G    16K  -
rpool/swap                                5.04G  7.99G    16K  -
# lucreate -c c0t1d0s5 -n new-zfsbe -p newPool 
Checking GRUB menu...
Analyzing system configuration.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID.
Creating configuration for boot environment <new-zfsbe>.
Source boot environment is <c0t1d0s5>.
Creating file systems on boot environment <new-zfsbe>.
Creating <zfs> file system for </> in zone <global> on <newPool/ROOT/new-zfsbe>.
Populating file systems on boot environment <new-zfsbe>.
Analyzing zones.
Mounting ABE <new-zfsbe>.
Generating file list.
Copying data from PBE <c0t1d0s5> to ABE <new-zfsbe>.
100% of filenames transferred
Finalizing ABE.
Fixing zonepaths in ABE.
Unmounting ABE <new-zfsbe>.
Fixing properties on ZFS datasets in ABE.
Reverting state of zones in PBE <c0t1d0s5>.
Making boot environment <new-zfsbe> bootable.
Updating bootenv.rc on ABE <new-zfsbe>.
Saving existing file </boot/grub/menu.lst> in top level dataset for BE <new-zfsBE> as <mount-point>//boot/grub/menu.lst.prev.
File </boot/grub/menu.lst> propagation successful
Copied GRUB menu from PBE to ABE
No entry for BE <new-zfsbe> in GRUB menu
Population of boot environment <new-zfsbe> successful.
Creation of boot environment <new-zfsbe> successful. 
# lustatus
Boot Environment           Is       Active Active    Can    Copy
Name                       Complete Now    On Reboot Delete Status
-------------------------- -------- ------ --------- ------ ----------
c0t0d0                     yes      yes    yes       no     -
zfsBE                            yes      no     no        yes    -
new-zfsbe                  yes      no     no        yes    -

# zfs list
NAME                                   USED  AVAIL  REFER  MOUNTPOINT
newPool                               7.15G  11.6G    36K  /newPool
newPool/ROOT                          4.05G  11.6G    31K  legacy
newPool/ROOT/new-zfsbe                4.05G  11.6G  4.05G  /
newPool/dump                          1.03G  12.6G    16K  -
newPool/swap                          2.06G  13.6G    16K  -
rpool                                             11.4G  2.95G    31K  /rpool
rpool/ROOT                                        4.34G  2.95G    31K  legacy
rpool/ROOT/zfsBE                                  4.34G  2.95G  4.34G  /
rpool/dump                                        2.06G  5.02G    16K  -
rpool/swap                                        5.04G  7.99G    16K  -