JavaScript is required to for searching.
Ignorer les liens de navigation
Quitter l'aperu
Guide d'installation d'Oracle Solaris 10 1/13 : Live Upgrade et planification de la mise à niveau     Oracle Solaris 10 1/13 Information Library (Français)
search filter icon
search icon

Informations document

Préface

Partie I Mise à niveau avec Live Upgrade

1.  Emplacement des informations de planification pour l'installation d'Oracle Solaris

2.  Live Upgrade (présentation)

3.  Live Upgrade (planification)

4.  Utilisation de Live Upgrade pour créer un environnement d'initialisation (tâches)

5.  Mise à niveau à l'aide de Live Upgrade (tâches)

6.  Reprise sur échec : restauration de l'environnement d'initialisation d'origine (Tâches)

7.  Maintenance des environnements d'initialisation de Live Upgrade (tâches)

8.  Mise à niveau du système d'exploitation Oracle Solaris sur un système comportant des zones non globales

9.  Exemples pour Live Upgrade

Partie II Mise à niveau et migration avec Live Upgrade vers un pool root ZFS

10.  Live Upgrade et ZFS (présentation)

11.  Live Upgrade pour ZFS (planification)

12.  Création d'un environnement d'initialisation pour des pools root ZFS

13.  Live Upgrade pour ZFS comportant des zones non globales

Création d'un environnement d'initialisation ZFS sur un système comportant des zones non globales (Présentation et planification)

Migration d'un système de fichiers root (/) UFS comportant des zones non globales vers un pool root ZFS (tâches)

Migration d'un système de fichiers UFS vers un pool root ZFS sur un système comportant des zones non globales

Partie III Annexes

A.  Références de commandes Live Upgrade

B.  Dépannage (tâches)

C.  Conditions supplémentaires de gestion des packages SVR4 - Références

D.  Utilisation de l'analyseur de patchs lors de la mise à niveau (Tâches)

Glossaire

Index

Migration d'un système de fichiers root (/) UFS comportant des zones non globales vers un pool root ZFS (tâches)

Cette section fournit des instructions détaillées relatives à la migration d'un système de fichiers root (/) UFS vers un pool root ZFS sur un système comportant des zones non globales. Aucune zone non globale ne se trouve sur un système de fichiers partagé du système de fichiers UFS

Migration d'un système de fichiers UFS vers un pool root ZFS sur un système comportant des zones non globales

La commande lucreate crée un environnement d'initialisation d'un pool root ZFS à partir d'un système de fichiers root (/) UFS. Avant de pouvoir exécuter la commande lucreate, un pool root ZFS doit être créé avec des tranches plutôt qu'avec des disques complets et ce, afin de pouvoir être initialisé et mis à jour. Cette procédure explique la méthode utilisée pour copier une zone non globale avec le système de fichiers root (/) UFS sur le nouvel environnement d'initialisation du pool root ZFS.

  1. Lors de la première exécution de Live Upgrade, suivez la procédure suivante.

    Remarque - Pour créer des environnements d'initialisation ZFS à l'aide de Live Upgrade, la version installée sur votre système ne doit pas être antérieure à la version Solaris 10 10/08. Les versions précédentes ne disposent pas des logiciels Live Upgrade et ZFS pour procéder à l'exécution de ces tâches.


    1. Au besoin, supprimez de votre système des packages Live Upgrade existants. Si vous procédez à une mise à niveau vers une nouvelle version, vous devez installer les packages correspondant à cette version.

      Les trois packages Live Upgrade, SUNWluu, SUNWlur et SUNWlucfg contiennent le logiciel nécessaire à la mise à niveau à l'aide de Live Upgrade. Outre les fonctionnalités existantes, ils intègrent de nouvelles fonctions ainsi que des correctifs de bogues. La mise à niveau de la version cible échoue si vous ne supprimez pas les packages existants et si vous installez les nouveaux packages sur le système préalablement à l'utilisation de Live Upgrade.

      # pkgrm SUNWlucfg SUNWluu SUNWlur
    2. Installez les nouveaux packages Live Upgrade de la version pour laquelle vous effectuez la mise à niveau. Pour obtenir des instructions, reportez-vous à la section Installation de Live Upgrade.
    3. Avant d'installer ou d'exécuter Live Upgrade, vous devez installer les patchs suivants. Ces patchs garantissent que vous disposez des tout derniers correctifs de bogues et fonctions de la version.

      Vérifiez que vous possédez la liste des derniers patchs mis à jour en consultant le site My Oracle Support. Recherchez le document d'information 1004881.1 - Live Upgrade Software Patch Requirements (anciennement 206844) sur My Oracle Support.

      • Connectez-vous en tant que superutilisateur ou prenez un rôle équivalent.


        Remarque - Les rôles contiennent des autorisations et des commandes privilégiées. Pour plus d'informations sur les rôles, reportez-vous à la section Configuring RBAC (Task Map) du manuel System Administration Guide: Security Services.


      • Si vous stockez les patchs sur un disque local, créez un répertoire, tel que /var/tmp/lupatches, puis téléchargez les patchs dans ce répertoire.

      • Obtenez la liste des patchs à partir du site Web My Oracle Support.

      • Accédez au répertoire des patchs.

        # cd /var/tmp/lupatches
      • Installez les patchs en utilisant la commande patchadd.

        # patchadd patch_id

        patch_id correspond au(x) numéro(s) de patch(s). Séparez les noms de patch par un espace.


        Remarque - Les patchs doivent être appliqués dans l'ordre indiqué dans le document d'information 1004881.1 - Live Upgrade Software Patch Requirements (anciennement 206844) sur My Oracle Support.


      • Réinitialisez le système si nécessaire. Certains patchs doivent être réinitialisés pour être effectifs.

        x86 uniquement : la réinitialisation du système est requise ou Live Upgrade échoue.

        # init 6
  2. Créez un pool root ZFS.

    Pour pouvoir être initialisé et mis à niveau, le pool root ZFS doit se trouver sur une tranche unique.

    # zpool create rpool c3t0d0s0

    Dans cet exemple; le ZFS à créer est nommé rpool. Le pool est créé sur une tranche amorçable nommée c3t0d0s0.

    Pour obtenir des informations sur la création d'un pool root, reportez-vous au Guide d’administration Oracle Solaris ZFS.

  3. Procédez à la migration du système de fichiers root (/) UFS vers le nouveau pool root ZFS.
    # lucreate [-c ufsBE] -n new-zfsBE -p rpool
    ufsBE

    Nom de l'environnement d'initialisation UFS actuel. Cette option n'est pas obligatoire et n'est utilisée que pour créer un premier environnement d'initialisation. Si vous exécutez la commande lucreate pour la première fois et omettez l'option -c, le logiciel crée pour vous un nom par défaut.

    new-zfsBE

    Nom de l'environnement d'initialisation à créer. Le nom doit être unique sur le système.

    -p rpool

    Place le dernier système de fichiers root (/) ZFS créé dans le pool root ZFS défini dans rpool.

    Toutes les zones non globales non partagées sont copiées sur le nouvel environnement d'initialisation avec les systèmes de fichiers critiques. La création d'un environnement d'initialisation ZFS peut prendre un certain temps. Les données du système de fichiers UFS sont copiées dans le pool root ZFS. Une fois l'environnement d'initialisation inactif créé, vous pouvez exécuter la commande luupgrade ou luactivate pour mettre à niveau ou activer cet environnement.

  4. Si vous le souhaitez, vérifiez que la création de l'environnement d'initialisation est terminée.

    La commande lustatus génère un rapport relatif à l'état de la création et de l'activation de l'environnement d'initialisation.

    # lustatus
    boot environment   Is         Active   Active     Can        Copy 
    Name               Complete   Now      OnReboot   Delete     Status 
    ------------------------------------------------------------------------ 
    ufsBE               yes       yes      yes        no         - 
    new-zfsBE           yes       no       no        yes         -
  5. Si vous le souhaitez, vérifiez les informations de base sur les jeux de données du système.

    La commande list affiche le nom de tous les jeux de données du système. Dans cet exemple, rpool est le nom du pool ZFS et new-zfsBE est le nom du dernier environnement d'initialisation ZFS créé.

    # zfs list
    NAME                               USED  AVAIL  REFER  MOUNTPOINT
    rpool                                 11.4G  2.95G    31K  /rpool
    rpool/ROOT                            4.34G  2.95G    31K  legacy
    rpool/ROOT/new-zfsBE                  4.34G  2.95G  4.34G  /
    rpool/dump                            2.06G  5.02G    16K  -
    rpool/swap                            5.04G  7.99G    16K  -

    Les points de montage répertoriés pour le nouvel environnement d'initialisation sont créés temporairement jusqu'à l'exécution de la commande luactivate. Les volumes /dump et /swap ne sont pas partagés avec l'environnement d'initialisation UFS d'origine, mais dans le pool root ZFS et dans les environnements d'initialisation de ce pool.

Exemple 13-1 Migration d'un système de fichiers root (/) UFS comportant des zones non globales vers un pool root ZFS

Dans l'exemple suivant, le root de la zone non globale, myzone, se trouve dans le système de fichiers root (/) UFS. tandis que le root de la zone zzone se trouve dans un système de fichiers ZFS du pool de stockage ZFS, pool. Live Upgrade procède à la migration de l'environnement d'initialisation UFS, c2t2d0s0, vers un environnement d'initialisation ZFS, zfs2BE. La zone basée sur UFS, myzone, migre vers un nouveau pool de stockage ZFS, mpool, créé avant l'utilisation de Live Upgrade. La zone non globale basée sur ZFS, zzone, est clonée, tout en étant conservée dans le pool ZFS, pool, puis migrée vers le nouvel environnement d'initialisation zfs2BE.

  1. Les commandes permettant de créer l'environnement d'initialisation sont les suivantes :

    # zoneadm list -iv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       - myzone           installed  /zones/myzone                  native   shared
       - zzone            installed  /pool/zones                    native   shared
    
    # zpool create mpool mirror c3t0d0s0 c4td0s0
    # lucreate -c c1t2d0s0 -n zfs2BE -p mpool
    Checking GRUB menu...
    Analyzing system configuration.
    Updating boot environment description database on all BEs.
    Updating system configuration files.
    The device </dev/dsk/c1t1d0s0> is not a root device for any boot environment; cannot get BE ID.
    Creating configuration for boot environment <zfs2BE>.
    Source boot environment is <c1t2d0s0>.
    Creating file systems on boot environment <zfs2BE>.
    Creating <zfs> file system for </> in zone <global> on <mpool/ROOT/zfs2BE>.
    Populating file systems on boot environment <zfs2BE>.
    Analyzing zones.
    Mounting ABE <zfs2BE>.
    Generating file list.
    Copying data from PBE <c1t2d0s0> to ABE <zfs2BE>.
    100% of filenames transferred
    Finalizing ABE.
    Fixing zonepaths in ABE.
    Unmounting ABE <zfs2BE>.
    Fixing properties on ZFS datasets in ABE.
    Reverting state of zones in PBE <c1t2d0s0>.
    Making boot environment <zfs2BE> bootable.
    Updating bootenv.rc on ABE <zfs2BE>.
    Saving existing file </boot/grub/menu.lst> in top level dataset for BE <zfs2BE> as <mount-point>//boot/grub/menu.lst.prev.
    File </boot/grub/menu.lst> propagation successful
    Copied GRUB menu from PBE to ABE
    No entry for BE <zfs2BE> in GRUB menu
    Population of boot environment <zfs2BE> successful.
    Creation of boot environment <zfs2BE> successful.
  2. Au terme de l'opération lucreate, exécutez la commande lustatus pour afficher l'état de l'environnement d'initialisation, comme dans cet exemple.

    # lustatus
    Boot Environment           Is       Active Active    Can    Copy      
    Name                       Complete Now    On Reboot Delete Status    
    -------------------------- -------- ------ --------- ------ ----------
    c1t2d0s0                   yes      yes    yes       no     -         
    zfsBE                      yes      no     no        yes    -         
    # zoneadm list -iv
      ID NAME             STATUS     PATH                           BRAND    IP    
       0 global           running    /                              native   shared
       - myzone           installed  /zones/myzone                  native   shared
       - zzone            installed  /pool/zones                    native   shared
  3. Ensuite, exécutez la commande luactivate pour activer le nouvel environnement d'initialisation ZFS. Par exemple :

    # luactivate zfsBE
    A Live Upgrade Sync operation will be performed on startup of boot 
    environment <zfsBE>.
    
    
    **********************************************************************
    
    The target boot environment has been activated. It will be used when you
    reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You
    MUST USE either the init or the shutdown command when you reboot. If you
    do not use either init or shutdown, the system will not boot using the
    target BE.
    
    **********************************************************************
    
    In case of a failure while booting to the target BE, the following 
    process
    needs to be followed to fallback to the currently working boot 
    environment:
    
    1. Enter the PROM monitor (ok prompt).
    
    2. Boot the machine to Single User mode using a different boot device
    (like the Solaris Install CD or Network). Examples:
    
       At the PROM monitor (ok prompt):
       For boot to Solaris CD:  boot cdrom -s
       For boot to network:     boot net -s
    
    3. Mount the Current boot environment root slice to some directory (like
    /mnt). You can use the following command to mount:
    
       mount -Fufs /dev/dsk/c1t0d0s0 /mnt
    
    4. Run <luactivate> utility with out any arguments from the current boot
    environment root slice, as shown below:
    
       /mnt/sbin/luactivate
    
    5. luactivate, activates the previous working boot environment and
    indicates the result.
    
    6. Exit Single User mode and reboot the machine.
    
    **********************************************************************
    
    Modifying boot archive service
    Activation of boot environment <zfsBE> successful.
  4. Réinitialisez le système de l'environnement d'initialisation ZFS.

    # init 6
    # svc.startd: The system is coming down.  Please wait.
    svc.startd: 79 system services are now being stopped.
    .
    .
    .
  5. Vérifiez le nouvel environnement d'initialisation et l'état des zones migrées, comme dans cet exemple.

    # lustatus
    Boot Environment           Is       Active Active    Can    Copy      
    Name                       Complete Now    On Reboot Delete Status    
    -------------------------- -------- ------ --------- ------ ----------
    c1t2d0s0                   yes      yes    yes       no     -         
    zfsBE                      yes      no     no        yes    -         

    Si vous procédez à la restauration de l'environnement d'initialisation UFS, vous devrez importer à nouveau tout pool de stockage ZFS créé dans l'environnement d'initialisation ZFS, car ces pools ne sont pas automatiquement disponibles dans l'environnement UFS. Lors de la restauration de l'environnement UFS, des messages s'affichent, similaires à ceux présentés ci-dessous.

    # luactivate c1t2d0s0
    WARNING: The following files have changed on both the current boot 
    environment <ZFSbe> zone <global> and the boot environment to be activated <c1t2d0s0>:
     /etc/zfs/zpool.cache
    INFORMATION: The files listed above are in conflict between the current 
    boot environment <ZFSbe> zone <global> and the boot environment to be 
    activated <c1t2d0s0>. These files will not be automatically synchronized 
    from the current boot environment <ZFSbe> when boot environment <c1t2d0s0>