Ignorer les liens de navigation | |
Quitter l'aperu | |
Guide d'installation Oracle Solaris 10 8/11 : planification des mises à niveau et de Solaris Live Upgrade |
Partie I Mise à niveau avec Solaris Live Upgrade
1. Emplacement des informations de planification pour l'installation de Solaris
2. Solaris Live Upgrade - Présentation
3. Solaris Live Upgrade - Planification
4. Utilisation de Solaris Live Upgrade pour créer un environnement d'initialisation - Tâches
5. Procédure de mise à niveau avec Solaris Live Upgrade - Tâches
6. Reprise sur échec : restauration de l'environnement d'initialisation d'origine (Tâches)
7. Maintenance des environnements d'initialisation de Solaris Live Upgrade - Tâches
9. Solaris Live Upgrade - Exemples
10. Solaris Live Upgrade - Références de commandes
Partie II Mise à niveau et migration avec Solaris Live Upgrade vers un pool racine ZFS
11. Solaris Live Upgrade et ZFS (Présentation)
12. Solaris Live Upgrade pour ZFS (Planification)
13. Création d'un environnement d'initialisation pour des pools racine ZFS
Migration d'un système de fichiers UFS vers un système de fichiers ZFS
Méthode de migration d'un système de fichiers UFS vers un système de fichiers ZFS
Création d'un environnement d'initialisation dans le même pool racine ZFS
Méthode de création d'un environnement d'initialisation ZFS dans le même pool racine ZFS
Création d'un environnement d'initialisation dans un nouveau pool racine
Méthode de création d'un environnement d'initialisation dans un nouveau pool racine ZFS
Restauration d'un environnement d'initialisation ZFS
14. Solaris Live Upgrade pour ZFS comportant des zones non globales
B. Conditions supplémentaires de gestion des packages SVR4 - Références
C. Utilisation de l'analyseur de patchs lors de la mise à niveau (Tâches)
Si vous disposez déjà d'un pool racine ZFS, mais que vous souhaitez créer un environnement d'initialisation ZFS dans un nouveau pool, suivez la procédure ci-dessous. Une fois cet environnement créé, vous pouvez le mettre à niveau et l'activer selon vos besoins. L'option -p est nécessaire pour enregistrer l'emplacement du nouvel environnement d'initialisation. Pour pouvoir être initialisé et mis à niveau, le pool racine ZFS existant doit se trouver sur une tranche distincte.
Ces patchs et packages garantissent que vous disposez des tous derniers correctifs de bogues et des nouvelles fonctions de la version. Veillez à installer tous les patchs destinés à votre système avant de créer un nouvel environnement d'initialisation.
Les étapes suivantes décrivent les procédures du document informatif 1004881.1 - Solaris Live Upgrade Software Patch Requirements (anciennement 206844) sur My Oracle Support.
Remarque - Pour créer des environnements d'initialisation ZFS à l'aide de Solaris Live Upgrade, la version installée sur votre système ne doit pas être antérieure à la version Solaris 10 10/08, car les versions précédentes ne disposent pas des logiciels Solaris Live Upgrade et ZFS pour procéder à l'exécution de ces tâches.
Remarque - Les rôles contiennent des autorisations et des commandes privilégiées. Pour plus d'informations sur les rôles, reportez-vous à la section Configuring RBAC (Task Map) du System Administration Guide: Security Services.
Les trois packages Solaris Live Upgrade SUNWluu, SUNWlur et SUNWlucfg contiennent le logiciel nécessaire à la mise à niveau à l'aide de Solaris Live Upgrade. Outre les fonctionnalités existantes, ils intègrent de nouvelles fonctions ainsi que des correctifs de bogues. La mise à niveau de la version cible échoue si vous ne supprimez pas les packages existants et si vous installez les nouveaux packages sur le système préalablement à l'utilisation de Solaris Live Upgrade. Le package SUMWlucfg est un nouvel élément de la version Solaris 10 8/07. Si vous utilisez des packages Solaris Live Upgrade d'une version antérieure à Solaris 10 8/07, vous n'avez pas besoin de supprimer ce package.
Remarque - Le package SUMWlucfg est un nouvel élément de la version Solaris 10 8/07. Si vous utilisez des packages Solaris Live Upgrade d'une version précédente, vous n'avez pas besoin de supprimer ce package.
# pkgrm SUNWlucfg SUNWluu SUNWlur
Vérifiez que vous possédez la liste des derniers patchs mis à jour en consultant le site My Oracle Support. Recherchez le document informatif 1004881.1 - Solaris Live Upgrade Software Patch Requirements (anciennement 206844) sur My Oracle Support.
Si vous stockez les patchs sur un disque local, créez un répertoire, tel que /var/tmp/lupatches, puis téléchargez les patchs dans ce répertoire.
Obtenez la liste des patchs à partir du site Web My Oracle Support.
Accédez au répertoire des patchs comme dans l'exemple ci-dessous.
# cd /var/tmp/lupatches
Installez les patchs en utilisant la commande patchadd.
# patchadd -M path-to-patches patch_id patch_id
path-to-patches correspond au chemin vers le répertoire des patchs, par exemple /var/tmp/lupatches. id_patch correspond au(x) numéro(s) de patch(s). Séparez les noms de patch par un espace.
Remarque - Les patchs doivent être appliqués dans l'ordre indiqué dans le document informatif 1004881.1 - Solaris Live Upgrade Software Patch Requirements (anciennement 206844) sur My Oracle Support.
Réinitialisez le système si nécessaire. Certains patchs doivent être réinitialisés pour être effectifs.
x86 uniquement. La réinitialisation du système est requise ou Solaris Live Upgrade échoue.
# init 6
Vous disposez maintenant des packages et des patchs nécessaires à une migration réussie.
Pour pouvoir être initialisé et mis à niveau, le pool racine ZFS doit se trouver sur une tranche unique.
# zpool create rpool2 c0t1d0s5
Nom du nouveau pool racine ZFS.
Spécifie l'emplacement de rpool2 sur la tranche initialisable, c0t1d0s5.
Pour obtenir des informations sur la création d'un pool racine, reportez-vous au Guide d’administration Oracle Solaris ZFS.
# lucreate [-c zfsBE] -n new-zfsBE -p rpool2
Attribue le nom zfsBE à l'environnement d'initialisation ZFS en cours.
Attribue le nom à l'environnement d'initialisation à créer. Le nom doit être unique sur le système.
Place le dernier environnement d'initialisation racine ZFS créé dans le pool racine ZFS défini dans rpool2.
La création d'un environnement d'initialisation ZFS peut prendre un certain temps. Les données du système de fichiers sont copiées dans le nouveau pool racine ZFS. Une fois l'environnement d'initialisation inactif créé, vous pouvez utiliser la commande luupgrade ou luactivate pour mettre à niveau ou activer cet environnement.
La commande lustatus génère un rapport relatif à l'état de la création et de l'activation de l'environnement d'initialisation.
# lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes -
L'exemple suivant affiche le nom de tous les jeux de données du système. Les points de montage répertoriés pour le nouvel environnement d'initialisation sont créés temporairement jusqu'à l'exécution de la commande luactivate. Les volumes rpool2/dump et rpool2/swap sont partagés entre le nouvel environnement d'initialisation et l'environnement d'initialisation ZFS rpool2.
# zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool2/ROOT/ 5.38G 57.6G 18K /rpool2/ROOT rpool2/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.new.luupdall.109859 rpool2/dump 3.99G - 3.99G - rpool2/swap 3.99G - 3.99G - rpool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G -
Vous pouvez à présent mettre à niveau et activer le nouvel environnement d'initialisation. Voir Exemple 13-3.
Exemple 13-3 Création d'un environnement d'initialisation dans un nouveau pool racine
Dans cet exemple, un pool racine ZFS, rpool, est créé sur une tranche distincte, c0t2s0s5. La commande lucreate crée un nouvel environnement d'initialisation ZFS, appelé zfsBE. L'option -p est nécessaire, car l'environnement d'initialisation est créé dans un pool racine différent.
# zpool create rpool C0t1d0s5 # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G - # lucreate -c rpool -n new-zfsBE -p rpool2 Analyzing system configuration. Current boot environment is named <rpool>. Creating initial configuration for primary boot environment <rpool>. The device </dev/dsk/c0t0d0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <rpool> PBE Boot Device </dev/dsk/rpool>. Comparing source boot environment <rpool> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. Creating configuration for boot environment <new-zfsBE>. Source boot environment is <rpool>. Creating boot environment <new-zfsBE>. Creating file systems on boot environment <new-zfsBE>. Creating <zfs> file system for </> in zone <global> on <rpool2/ROOT/new-zfsBE>. Populating file systems on boot environment <new-zfsBE>. Checking selection integrity. Integrity check OK. Populating contents of mount point </>. Copying. Creating shared file system mount points. Creating compare databases for boot environment <zfsBE>. Creating compare database for file system </>. Making boot environment <new-zfsBE> bootable. Creating boot_archive for /.alt.tmp.b-cBc.mnt updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive Population of boot environment <new-zfsBE> successful. Creation of boot environment <new-zfsBE> successful. # lustatus boot environment Is Active Active Can Copy Name Complete Now OnReboot Delete Status ------------------------------------------------------------------------ zfsBE yes yes yes no - new-zfsBE yes no no yes - # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool2 9.29G 57.6G 20K /rpool2 rpool2/ROOT/ 5.38G 57.6G 18K /rpool2/ROOT rpool2/ROOT/new-zfsBE 5.38G 57.6G 551M /tmp/.new.luupdall.109859 rpool2/dump 3.99G - 3.99G - rpool2/swap 3.99G - 3.99G - rpool 9.29G 57.6G 20K /.new.lulib.rs.109262 rpool/ROOT 5.46G 57.6G 18K legacy rpool/ROOT/zfsBE 5.46G 57.6G 551M rpool/dump 3.99G - 3.99G - rpool/swap 3.99G - 3.99G -