Effectuez cette procédure pour mettre à niveau le système d'exploitation Solaris, les composants partagés Java ES, le logiciel de gestionnaire de volumes et le logiciel Sun Cluster à l'aide de la méthode de mise à niveau en direct. La méthode de mise à niveau en direct de Sun Cluster utilise la fonction Solaris Live Upgrade. Pour obtenir des informations sur la mise à niveau en direct du système d'exploitation Solaris, reportez-vous à la documentation de la version Solaris que vous utilisez :
Chapitre 32, Solaris Live Upgrade (Topics) du Solaris 9 9/04 Installation Guide
Guide d’installation de Solaris 10 : Solaris Live Upgrade et planification de la mise à niveau
Le cluster doit déjà fonctionner avec, ou être mis à niveau vers, au moins le niveau minimum requis du système d'exploitation Solaris pour prendre en charge la mise à niveau vers Sun Cluster 3.2. Pour de plus amples informations, reportez-vous à la rubrique « Produits pris en charge » des Notes de version de Sun Cluster 3.2 pour SE Solaris.
Suivez cette procédure sur chaque noeud du cluster.
Vous pouvez utiliser l'utilitaire cconsole pour effectuer cette procédure sur tous les nœuds simultanément. Pour de plus amples informations, reportez-vous à la section Procédure d'installation du logiciel Cluster Control Panel sur une console administrative.
Assurez-vous d'avoir suivi toutes les étapes de la rubrique Préparation du cluster pour la mise à niveau (en direct).
Assurez-vous qu'une version prise en charge du logiciel Solaris Live Upgrade est installée sur chaque nœud.
Si votre système d'exploitation est déjà mis à niveau vers Logiciel Solaris 9 9/05 ou Solaris 10 11/06, vous disposez de la version correcte de Solaris Live Upgrade. Si votre système d'exploitation est une version antérieure, effectuez les étapes suivantes :
Insérez le support Logiciel Solaris 9 9/05 ou Solaris 10 11/06.
Prenez le rôle de superutilisateur.
Installez les packages SUNWluu et SUNWlur.
phys-schost# pkgadd -d path SUNWluu SUNWlur |
Spécifie le chemin absolu vers les packages.
Vérifiez que les packages ont été installés.
phys-schost# pkgchk -v SUNWluu SUNWlur |
Si vous prévoyez de mettre à niveau le SE Solaris et que votre cluster utilise des médiateurs à deux chaînes pour le logiciel Solaris Volume Manager, annulez la configuration de vos médiateurs.
Pour de plus amples informations sur les médiateurs, reportez-vous à la rubrique Configuration de médiateurs à deux chaînes.
Exécutez la commande suivante pour vérifier l'absence de problèmes de données du médiateur.
phys-schost# medstat -s setname |
Spécifie le nom du jeu de disques.
Si le champ Statut affiche la valeur Incorrect, réparez l'hôte médiateur affecté. Suivez la procédure de la rubrique Correction des données incorrectes du médiateur.
Répertoriez tous les médiateurs.
Enregistrez ces informations pour les cas où vous devez restaurer les médiateurs pendant la procédure de la section Finition de la mise à niveau vers Sun Cluster 3.2.
Lorsqu'un jeu de disques utilise des médiateurs, devenez propriétaire du jeu si aucun nœud n'en est propriétaire.
phys-schost# scswitch -z -D setname -h node |
Change de maître.
Indique le nom du jeu de disques.
Indique le nom du nœud que vous voulez convertir en nœud principal du jeu de disques.
Annulez la configuration de tous les médiateurs du jeu de disques.
phys-schost# metaset -s setname -d -m mediator-host-list |
Spécifie le nom du jeu de disques.
Supprime du jeu de disques.
Indique le nom du nœud à supprimer en tant qu'hôte médiateur du jeu de disques.
Reportez-vous à la page de manuel mediator(7D) afin d'obtenir plus d'informations sur les options spécifiques du médiateur pour la commande metaset.
Répétez de l'étape c à l'étape d pour chaque jeu de disques restant qui utilise des médiateurs.
Créez un environnement d'initialisation (EI) inactif.
phys-schost# lucreate options-n BE-name |
Indique le nom de l'environnement d'initialisation que vous souhaitez mettre à niveau.
Pour de plus amples informations sur les options importantes de la commande lucreate, reportez-vous au Guide d’installation de Solaris 10 : Solaris Live Upgrade et planification de la mise à niveau et à la page de manuel lucreate(1M).
Le cas échéant, mettez à niveau le système d'exploitation Solaris de votre EI inactif.
Si le cluster s'exécute déjà sur une version possédant les patchs requis du système d'exploitation Solaris prenant en charge Sun Cluster 3.2, cette étape est facultative.
Si vous utilisez le logiciel Solaris Volume Manager, exécutez la commande suivante :
phys-schost# luupgrade -u -n BE-name -s os-image-path |
Met à niveau une image de système d'exploitation sur un environnement d'initialisation.
Indique le chemin d'accès au répertoire comportant une image du système d'exploitation.
Si vous utilisez VERITAS Volume Manager, suivez les procédures de mise à niveau en direct de la documentation d'installation de VxVM.
Montez votre EI inactif à l'aide de la commande lumount.
phys-schost# lumount -n BE-name -m BE-mount-point |
Indique le point de montage de BE-name.
Pour de plus amples informations, reportez-vous au Guide d’installation de Solaris 10 : Solaris Live Upgrade et planification de la mise à niveau et à la page de manuel lumount(1M).
Assurez-vous que le répertoire /BE-mount-point/usr/java/ est un lien symbolique vers la version minimale ou la version la plus à jour du logiciel Java.
Le logiciel Sun Cluster requiert au minimum la version 1.5.0_06 du logiciel Java. Si vous avez procédé à la mise à niveau vers une version de Solaris qui installe une version antérieure de Java, il se peut que la mise à niveau ait modifié le lien symbolique pour pointer vers une version de Java ne correspondant pas au minimum requis pour le logiciel Sun Cluster 3.2.
Déterminez le répertoire vers lequel le répertoire /BE-mount-point/usr/java/ est symboliquement lié.
phys-schost# ls -l /BE-mount-point/usr/java lrwxrwxrwx 1 root other 9 Apr 19 14:05 /BE-mount-point/usr/java -> /BE-mount-point/usr/j2se/ |
Identifiez la ou les versions installées du logiciel Java.
L'exemple suivant présente les commandes que vous pouvez utiliser pour afficher les versions connexes du logiciel Java.
phys-schost# /BE-mount-point/usr/j2se/bin/java -version phys-schost# /BE-mount-point/usr/java1.2/bin/java -version phys-schost# /BE-mount-point/usr/jdk/jdk1.5.0_06/bin/java -version |
Si le répertoire /BE-mount-point/usr/java/ n'est pas symboliquement lié à une version prise en charge du logiciel Java, recréez le lien symbolique vers une version prise en charge de Java.
L'exemple suivant présente la création d'un lien symbolique vers le répertoire /usr/j2se/ contenant le logiciel Java 1.5.0_06.
phys-schost# rm /BE-mount-point/usr/java phys-schost# cd /mnt/usr phys-schost# ln -s j2se java |
Appliquez les patchs Solaris nécessaires.
Il se peut que vous deviez appliquer un patch à votre logiciel Solaris pour utiliser la fonctionnalité Live Upgrade. Pour obtenir des détails sur les patchs requis par le système d'exploitation Solaris et l'endroit où les télécharger, reportez-vous à la rubrique Managing Packages and Patches With Solaris Live Upgrade du Solaris 9 9/04 Installation Guide ou à la rubrique Mise à niveau d’un système à l’aide de packages ou de patchs du Guide d’installation de Solaris 10 : Solaris Live Upgrade et planification de la mise à niveau.
Si nécessaire, et si votre version de VERITAS Volume Manager (VxVM) le prend en charge, mettez à niveau votre logiciel VxVM.
Reportez-vous à la documentation de votre logiciel VxVM pour déterminer si votre version de VxVM peut utiliser la méthode de mise à niveau en direct.
(Facultatif) SPARC : mettez à niveau VxFS.
Suivez les instructions des procédures fournies dans la documentation VxFS.
Si votre cluster héberge des applications logicielles qui requièrent une mise à niveau et que vous pouvez procéder à une mise à niveau à l'aide de la méthode de mise à niveau en direct, mettez à niveau ces applications logicielles.
Si votre cluster héberge des applications logicielles qui ne peuvent pas utiliser la méthode de mise à niveau en direct, vous pourrez les mettre à niveau ultérieurement dans l'Étape 25.
Chargez le DVD-ROM Sun Java Availability Suite dans le lecteur DVD-ROM\~;.
Si le démon de gestion de volumes vold(1M) est en cours d'exécution et qu'il est configuré pour gérer les périphériques de CD-ROM ou de DVD, il monte automatiquement le support sur le répertoire /cdrom/cdrom0/.
Déplacez-vous sur le répertoire assistant d'installation du DVD-ROM\~;.
Si vous installez les packages du logiciel sur une plate-forme SPARC, exécutez la commande suivante :
phys-schost# cd /cdrom/cdrom0/Solaris_sparc |
Si vous installez les packages du logiciel sur une plate-forme x86, exécutez la commande suivante :
phys-schost# cd /cdrom/cdrom0/Solaris_x86 |
Lancez le programme assistant d'installation pour diriger la sortie vers un fichier d'état.
Indiquez le nom à attribuer au fichier d'état ainsi que le chemin absolu ou relatif où le fichier doit être créé.
Pour créer un fichier d'état à l'aide de l'interface graphique, utilisez la commande suivante :
phys-schost# ./installer -no -saveState statefile |
Pour créer un fichier d'état à l'aide de l'interface texte, utilisez la commande suivante :
phys-schost# ./installer -no -nodisplay -saveState statefile |
Pour de plus amples informations, reportez-vous à la rubrique Generating the Initial State File du Sun Java Enterprise System 5 Installation Guide for UNIX.
Suivez les instructions qui apparaissent à l'écran pour sélectionner et mettre à niveau les packages des composants partagés sur le nœud.
Le programme assistant d'installation affiche l'état de l'installation. Une fois l'installation terminée, le programme affiche un récapitulatif et l'installation démarre.
Quittez le programme assistant d'installation.
Exécutez le programme installer en mode Silencieux et dirigez l'installation vers l'environnement d'initialisation secondaire.
Le programme installer doit être de la même version que celle utilisée pour créer le fichier d'état.
phys-schost# ./installer -nodisplay -noconsole -state statefile -altroot BE-mount-point |
Pour de plus amples informations, reportez-vous à la rubrique To Run the Installer in Silent Mode du Sun Java Enterprise System 5 Installation Guide for UNIX.
Déplacez-vous sur le répertoire RépertoireSolaris_arch/Product/sun_cluster/Solaris_ver/Tools/ , où arch est sparc ou x86 (Solaris 10 uniquement) et où ver est 9 pour Solaris 9 ou 10 pour Solaris 10 .
phys-schost# cd /cdrom/cdrom0/Solaris_arch/Product/sun_cluster/Solaris_ver/Tools |
Procédez à la mise à niveau de votre logiciel Sun Cluster à l'aide de la commande scinstall.
phys-schost# ./scinstall -u update -R BE-mount-point |
Indique que vous procédez à une mise à niveau du logiciel Sun Cluster.
Indique le point de montage pour votre environnement d'initialisation secondaire.
Pour de plus amples informations, reportez-vous à la page du manuel scinstall(1M).
Procédez à la mise à niveau de vos services de données à l'aide de la commande scinstall.
phys-schost# BE-mount-point/usr/cluster/bin/scinstall -u update -s all \ -d /cdrom/cdrom0/Solaris_arch/Product/sun_cluster_agents -R BE-mount-point |
Retirez le DVD-ROM Sun Java Availability Suite du lecteur DVD-ROM\~;.
Annulez le montage de l'EI inactif.
phys-schost# luumount -n BE-name |
Activez l'EI inactif mis à niveau.
phys-schost# luactivate BE-name |
Nom de l'EI secondaire créé à l'Étape 3.
Répétez de l'Étape 1 à l'Étape 22 pour chaque nœud du cluster.
Ne réinitialisez aucun nœud tant que tous les nœuds du cluster n'ont pas été mis à niveau sur leur EI inactif.
Redémarrer tous les noeuds.
phys-schost# shutdown -y -g0 -i6 |
N'utilisez pas la commande reboot, ni la commande halt. Ces commandes n'activent pas un nouvel EI. Utilisez uniquement shutdown ou init pour réinitialiser dans un nouvel EI.
Les nœuds se réinitialisent en mode cluster à l'aide du nouvel EI mis à niveau.
(Facultatif) Si votre cluster héberge des applications logicielles qui requièrent une mise à niveau pour laquelle vous ne pouvez pas utiliser la méthode de mise à niveau en direct, effectuez les étapes suivantes.
Tout au long du processus de mise à niveau de l'application, réinitialisez toujours en mode non cluster jusqu'à ce que toutes les mises à niveau soient terminées.
Arrêtez le nœud.
phys-schost# shutdown -y -g0 -i0 |
Réinitialisez chaque noeud en mode non cluster.
Sur les systèmes SPARC, exécutez la commande suivante :
ok boot -x |
Sur les systèmes x86, exécutez les commandes suivantes :
Dans le menu GRUB, utilisez les touches fléchées pour sélectionner l'entrée Solaris appropriée, puis saisissez e pour modifier ses commandes.
Le menu GRUB qui s'affiche est similaire à ce qui suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
Pour plus d'informations sur l'initialisation GRUB, reportez-vous au Chapitre 11, GRUB Based Booting (Tasks) du System Administration Guide: Basic Administration.
Sur l'écran des paramètres d'initialisation, utilisez les touches fléchées pour sélectionner l'entrée kernel et saisissez e pour modifier l'entrée.
L'écran des paramètres d'initialisation GRUB qui s'affiche est similaire à ce qui suit :
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu. |
Ajoutez -x à la commande pour spécifier l'initialisation du système en mode non cluster.
[ Minimal BASH-like line editing is supported. For the first word, TAB lists possible command completions. Anywhere else TAB lists the possible completions of a device/filename. ESC at any time exits. ] grub edit> kernel /platform/i86pc/multiboot -x |
Appuyez sur Entrée pour accepter la modification et retourner à l'écran des paramètres d'initialisation.
L'écran affiche la commande modifiée.
GNU GRUB version 0.95 (615K lower / 2095552K upper memory) +----------------------------------------------------------------------+ | root (hd0,0,a) | | kernel /platform/i86pc/multiboot -x | | module /platform/i86pc/boot_archive | +----------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press 'b' to boot, 'e' to edit the selected command in the boot sequence, 'c' for a command-line, 'o' to open a new line after ('O' for before) the selected line, 'd' to remove the selected line, or escape to go back to the main menu.- |
Saisissez b pour initialiser le nœud en mode non cluster.
Cette modification apportée à la commande du paramètre d'initialisation du noyau n'est pas conservée après l'initialisation du système. La prochaine réinitialisation du nœud se fera donc en mode cluster. Pour effectuer un démarrage en mode non cluster, exécutez à nouveau ces étapes pour ajouter l'option -x à la commande du paramètre d'initialisation du noyau.
Si l'instruction vous indique d'exécuter la commande init S, arrêtez le système, puis modifiez plutôt la commande d'initialisation de noyau GRUB sur /platform/i86pc/multiboot -sx.
Mettez à niveau chaque application logicielle qui requiert une mise à niveau.
Pensez à initialiser en mode non cluster s'il vous est demandé de réinitialiser, et ce jusqu'à ce que toutes les applications aient été mises à niveau.
Initialisez chaque nœud en mode cluster.
Sur les systèmes SPARC, exécutez la commande suivante :
ok boot |
Sur les systèmes x86, exécutez les commandes suivantes :
Lorsque le menu GRUB s'affiche, sélectionnez l'entrée Solaris appropriée, puis appuyez sur Entrée. Le menu GRUB qui s'affiche est similaire à ce qui suit :
GNU GRUB version 0.95 (631K lower / 2095488K upper memory) +-------------------------------------------------------------------------+ | Solaris 10 /sol_10_x86 | | Solaris failsafe | | | +-------------------------------------------------------------------------+ Use the ^ and v keys to select which entry is highlighted. Press enter to boot the selected OS, 'e' to edit the commands before booting, or 'c' for a command-line. |
Cet exemple présente une mise à niveau en direct d'un nœud de cluster. Cet exemple permet de mettre à niveau le nœud SPARC vers le système d'exploitation Solaris 10, la structure Sun Cluster 3.2 et tous les services de données Sun Cluster prenant en charge la méthode de mise à niveau en direct. Dans cet exemple, sc31u2 est l'environnement d'initialisation (EI) d'origine. Le nouvel EI mis à niveau possède le nom sc32 et utilise le point de montage /sc32. Le répertoire /net/installmachine/export/solaris10/OS_image/ contient une image du système d'exploitation Solaris 10. Le fichier d'état du programme d'installation de Java ES possède le nom sc32state.
Les commandes suivantes produisent généralement un résultat abondant. Ce résultat est présenté uniquement lorsque cela est nécessaire pour la clarté.
phys-schost# lucreate sc31u2 -m /:/dev/dsk/c0t4d0s0:ufs -n sc32 … lucreate: Creation of Boot Environment sc32 successful. phys-schost# luupgrade -u -n sc32 -s /net/installmachine/export/solaris10/OS_image/ The Solaris upgrade of the boot environment sc32 is complete. Apply patches phys-schost# lumount sc32 /sc32 phys-schost# ls -l /sc32/usr/java lrwxrwxrwx 1 root other 9 Apr 19 14:05 /sc32/usr/java -> /sc32/usr/j2se/ Insert the DVD-ROM Sun Java Availability Suite. phys-schost# cd /cdrom/cdrom0/Solaris_sparc phys-schost# ./installer -no -saveState sc32state phys-schost# ./installer -nodisplay -noconsole -state sc32state -altroot /sc32 phys-schost# cd /cdrom/cdrom0/Solaris_sparc/sun_cluster/Sol_9/Tools phys-schost# ./scinstall -u update -R /sc32 phys-schost# /sc32/usr/cluster/bin/scinstall -u update -s all -d /cdrom/cdrom0 -R /sc32 phys-schost# cd / phys-schost# eject cdrom phys-schost# luumount sc32 phys-schost# luactivate sc32 Activation of boot environment sc32 successful. Upgrade all other nodes Boot all nodes phys-schost# shutdown -y -g0 -i6 ok boot |
À ce stade, vous pouvez mettre à niveau les applications de service de données qui ne peuvent pas utiliser la méthode de mise à niveau en direct avant de réinitialiser en mode cluster.
Erreurs de noms des périphériques DID : au cours de la création de l'EI inactif, si vous avez reçu une erreur précisant qu'un système de fichiers que vous avez indiqué avec son nom de périphérique DID /dev/dsk/did/dNsX, n'existe pas, alors que le nom du périphérique existe bien, vous devez indiquer le périphérique par son nom de périphérique physique. Changez ensuite l'entrée vfstab sur l'EI secondaire pour utiliser le nom de périphérique DID. Procédez comme suit :
1) Pour tous les périphériques DID non reconnus, indiquez les noms des périphériques physiques correspondants en tant qu'arguments de l'option -m ou -M de la commande lucreate. Par exemple, si /global/.devices/node@nodeid est monté sur un périphérique DID, utilisez lucreate -m /global/.devices/node@nodeid:/dev/dsk/cNtXdYsZ:ufs [-m…] -n BE-name pour créer l'EI.
2) Montez l'EI inactif à l'aide de la commande lumount -n BE-name -m BE-mount-point.
3) Modifiez le fichier /BE-name/etc/vfstab pour convertir le nom de périphérique physique, /dev/dsk/cNtXdYsZ, en nom de périphérique DID, /dev/dsk/did/dNsX.
Erreurs de point de montage : au cours de la création de l'environnement d'initialisation inactif, si vous recevez une erreur indiquant que le point de montage indiqué n'est pas monté, montez ce point de montage et réexécutez la commande lucreate.
Nouvelles erreurs d'initialisation BE : si vous rencontrez des problèmes lorsque vous initialisez l'environnement nouvellement mis à niveau, vous pouvez rétablir le BE d'origine. Pour obtenir des informations spécifiques, reportez-vous à la rubrique Failure Recovery: Falling Back to the Original Boot Environment (Command-Line Interface) du Solaris 9 9/04 Installation Guide ou au Chapitre 10, Reprise sur panne : restauration de l’environnement d’initialisation d’origine (Tâches) du Guide d’installation de Solaris 10 : Solaris Live Upgrade et planification de la mise à niveau.
Erreurs de système de fichiers de périphériques globaux : après la mise à niveau d'un cluster sur lequel le disque racine est encapsulé, l'un des messages d'erreur suivants est susceptible de s'afficher sur la console du cluster lors de la première réinitialisation du BE mis à niveau.
mount: /dev/vx/dsk/bootdg/node@1 is already mounted or /global/.devices/node@1 is busy Trying to remount /global/.devices/node@1 mount: /dev/vx/dsk/bootdg/node@1 is already mounted or /global/.devices/node@1 is busy |
WARNING - Unable to mount one or more of the following filesystem(s): /global/.devices/node@1 If this is not repaired, global devices will be unavailable. Run mount manually (mount filesystem...). After the problems are corrected, please clear the maintenance flag on globaldevices by running the following command: /usr/sbin/svcadm clear svc:/system/cluster/globaldevices:default |
Dec 6 12:17:23 svc.startd[8]: svc:/system/cluster/globaldevices:default: Method "/usr/cluster/lib/svc/method/globaldevices start" failed with exit status 96. [ system/cluster/globaldevices:default misconfigured (see 'svcs -x' for details) ] Dec 6 12:17:25 Cluster.CCR: /usr/cluster/bin/scgdevs: Filesystem /global/.devices/node@1 is not available in /etc/mnttab. Dec 6 12:17:25 Cluster.CCR: /usr/cluster/bin/scgdevs: Filesystem /global/.devices/node@1 is not available in /etc/mnttab. |
Ces messages signalent que le numéro mineur vxio est identique sur chaque nœud de cluster. Minorez à nouveau le groupe de disques racine sur chaque nœud afin que chaque numéro soit unique dans le cluster. Reportez-vous à la rubrique Affectation d'un nouveau code mineur à un groupe de périphériques.
Reportez-vous à la section Vérification de la mise à niveau de Sun Cluster 3.2.
Vous pouvez choisir de conserver votre environnement d'initialisation original, et désormais inactif, tant que vous le souhaitez. Lorsque vous êtes satisfait de votre mise à niveau et que vous la considérez acceptable, vous pouvez choisir de supprimer l'ancien environnement ou de le conserver et d'en assurer la maintenance.
Si vous avez utilisé un volume non mis en miroir pour votre EI inactif, supprimez les anciens fichiers d'EI. Pour obtenir des informations spécifiques, reportez-vous à la rubrique Deleting an Inactive Boot Environment du Solaris 9 9/04 Installation Guide ou à la rubrique Suppression d’un environnement d’initialisation inactif du Guide d’installation de Solaris 10 : Solaris Live Upgrade et planification de la mise à niveau.
Si vous avez séparé un plex à utiliser en tant qu'EI inactif, refusionnez-le et synchronisez les miroirs. Pour de plus amples informations sur l'utilisation d'un plex, reportez-vous à la rubrique Example of Detaching and Upgrading One Side of a RAID 1 Volume (Mirror) (Command-Line Interface) du Solaris 9 9/04 Installation Guide ou à la rubrique Exemple de séparation et de mise à niveau d’une face d’un volume RAID-1 (miroir) (interface de ligne de commande) du Guide d’installation de Solaris 10 : Solaris Live Upgrade et planification de la mise à niveau.
Vous pouvez également assurer la maintenance de l'EI inactif. Pour obtenir des informations sur la façon de maintenir l'environnement, reportez-vous au Chapitre 37, Maintaining Solaris Live Upgrade Boot Environments (Tasks) du Solaris 9 9/04 Installation Guide ou au Chapitre 11, Maintenance des environnements d’initialisation de Solaris Live Upgrade – Tâches du Guide d’installation de Solaris 10 : Solaris Live Upgrade et planification de la mise à niveau.