Guide d'installation de Solaris 10 10/09 : Solaris Live Upgrade et planification de la mise à niveau

Partie II Mise à niveau et migration avec Solaris Live Upgrade vers un pool racine ZFS

Vous trouverez dans cette section une présentation et des instructions relatives à l'utilisation de Solaris Live Upgrade pour créer et mettre à niveau un environnement d'initialisation inactif sur des pools de stockage ZFS. Vous avez également la possibilité de faire migrer le système de fichiers racine (/) UFS vers un pool racine ZFS.

Chapitre 11 Solaris Live Upgrade et ZFS (Présentation)

Solaris Live Upgrade vous permet de faire migrer vos systèmes de fichiers UFS vers un pool racine ZFS et de créer des systèmes de fichiers racine ZFS à partir d'un pool racine ZFS.


Remarque –

La création d'environnements d'initialisation à l'aide de Solaris Live Upgrade est une nouvelle fonction de la version Solaris 10 10/08. Lorsque vous utilisez Solaris Live Upgrade sur un système de fichiers UFS, les paramètres de la ligne de commande et l'opération de Solaris Live Upgrade restent inchangés. Pour utiliser Solaris Live Update avec des systèmes de fichiers UFS, reportez-vous à la Partie I, Mise à niveau avec Solaris Live Upgrade de ce manuel.


Les sections suivantes proposent une présentation de ces tâches :

Nouveautés de la version Solaris 10 10/09

Avec la version Solaris 10 10/09, vous pouvez définir un profil JumpStart pour identifier une archive Flash d'un pool racine ZFS.

Une archive Flash peut être créée sur un système fonctionnant avec un système de fichiers racine UFS ou un système de fichiers racine ZFS. Une archive Flash d'un pool racine ZFS contient l'intégralité de la hiérarchie du pool, à l'exception des volumes de swap et de vidage, ainsi que des jeux de données exclus. Les volumes de swap et de vidage sont créés quand l'archive Flash est installée.

Vous pouvez utiliser la méthode d'installation d'archive Flash pour :

Pour des instructions détaillées et les restrictions, reportez-vous à la section Installation d’un système de fichiers racine ZFS (installation d’archive Flash) du Guide d’administration Solaris ZFS.

Introduction à l'utilisation de Solaris Live Upgrade avec ZFS

Si vous disposez d'un système de fichiers UFS, Solaris Live Upgrade fonctionne de la même manière que dans les versions antérieures. Désormais, vous pouvez faire migrer des systèmes de fichiers UFS vers un pool racine ZFS et créer des environnements d'initialisation dans un pool racine ZFS. Pour ce faire, la commande lucreate est utilisée avec l'option -p. La syntaxe de la commande est la suivante :


# lucreate [-c active_BE_name] -n BE_name [-p zfs_root_pool]

L'option -p spécifie le pool ZFS dans lequel réside un nouvel environnement d'initialisation. Cette option n'est plus nécessaire lorsque les environnements d'initialisation source et cible se trouvent dans le même pool.

L'option -m de la commande lucreate n'est pas prise en charge avec ZFS. Les autres options de la commande lucreate fonctionnent normalement, à quelques exceptions près. Pour connaître ces exceptions, reportez-vous à la section Configuration système requise et restrictions relatives à l'utilisation de Solaris Live Upgrade.

Migration d'un système de fichiers UFS vers un pool racine ZFS

Si vous créez un environnement d'initialisation à partir du système en cours de fonctionnement, la commande lucreate copie le système de fichiers racine (/) UFS dans un pool racine ZFS. Selon votre système, la copie peut prendre un certain temps.

Lorsque vous faites migrer un système de fichiers UFS, l'environnement d'initialisation source peut être un système de fichiers racine (/) UFS placé sur une tranche de disque. Vous ne pouvez pas créer un environnement d'initialisation sur un système de fichiers UFS à partir d'un environnement d'initialisation source placé sur un pool racine ZFS.

Migration d'un système de fichiers racine (/) UFS vers un pool racine ZFS

Les commandes suivantes créent un pool racine ZFS, ainsi qu'un environnement d'initialisation à partir d'un système de fichiers racine (/) UFS du pool racine ZFS. Avant de pouvoir exécuter la commande lucreate, un pool racine ZFS doit être créé avec des tranches plutôt qu'avec un disque complet et ce, afin de pouvoir être initialisé et mis à jour. Le disque doit porter une étiquette SMI, et non EFI. Pour connaître les autres restrictions, reportez-vous à la section Configuration système requise et restrictions relatives à l'utilisation de Solaris Live Upgrade.

La Figure 11–1 illustre comment la commande zpool crée un pool racine, rpool, sur une tranche distincte, c0t1d0s5. La tranche de disque c0t0d0s0 contient un système de fichiers racine (/) UFS. Dans la commande lucreate, l'option -c nomme le système en cours de fonctionnement, c0t0d0, qui est un système de fichiers racine (/) UFS. L'option -n attribue un nom à l'environnement d'initialisation à créer, new-zfsBE. L'option -p spécifie l'emplacement du nouvel environnement d'initialisation : rpool. Le système de fichiers UFS /export et le volume /swap ne sont pas copiés dans le nouvel environnement d'initialisation.

Figure 11–1 Migration d'un système de fichiers UFS vers un pool racine ZFS

Le contexte illustre la figure.


Exemple 11–1 Migration d'un système de fichiers racine (/) UFS vers un pool racine ZFS

Cet exemple utilise les mêmes commandes que celles de la Figure 11–1. Les commandes créent un pool racine, rpool, ainsi qu'un environnement d'initialisation dans le pool à partir d'un système de fichiers racine (/) UFS. Ici, la commande zfs list affiche le pool racine ZFS créé par la commande zpool. La commande zfs list suivante affiche les jeux de données créés par la commande lucreate.


# zpool create rpool c0t1d0s5
# zfs list
NAME                        USED  AVAIL  REFER  MOUNTPOINT 
rpool                      9.29G  57.6G    20K  /rpool

# lucreate -c c0t0d0 -n new-zfsBE -p rpool
# zfs list
NAME                        USED  AVAIL  REFER  MOUNTPOINT 
rpool                      9.29G  57.6G    20K  /rpool
rpool/ROOT                 5.38G  57.6G    18K  /rpool/ROOT
rpool/ROOT/new-zfsBE       5.38G  57.6G   551M  /tmp/.alt.luupdall.110034
rpool/dump                 1.95G      -  1.95G  - 
rpool/swap                 1.95G      -  1.95G  - 

Le nouvel environnement d'initialisation est rpool/ROOT/new-zfsBE. L'environnement d'initialisation, new-zfsBE, est prêt à être mis à niveau et activé.


Migration d'un système de fichiers UFS avec des volumes Solaris Volume Manager configurés dans un système de fichiers racine ZFS

Vous pouvez faire migrer votre système de fichiers UFS si votre système possède des volumes Solaris Volume Manager (SVM). Pour créer un environnement d'initialisation UFS à partir d'une configuration SVM, placez-vous sur le système en cours de fonctionnement. Ensuite, créez l'environnement d'initialisation ZFS à partir du nouvel environnement d'initialisation UFS.

Présentation de Solaris Volume Manager (SVM). ZFS utilise le concept de pools de stockage pour la gestion du stockage physique. Auparavant, l'élaboration des systèmes de fichiers reposait sur un périphérique physique unique. Pour prendre en charge plusieurs périphériques et procurer une redondance de données, le concept de gestionnaire de volumes avait été introduit afin de fournir l'image d'un périphérique unique. Par conséquent, les systèmes de fichiers n'avaient pas besoin d'être modifiés pour profiter de plusieurs périphériques. Cette conception ajoutait un niveau de complexité supplémentaire et empêchait finalement les avancées de certains systèmes de fichiers, car le système de fichiers ne pouvait pas contrôler le placement physique des données dans les volumes virtualisés.

Les pools de stockage ZFS remplacent SVM. ZFS élimine complètement la gestion des volumes. Plutôt que de vous obliger à créer des volumes virtualisés, ZFS regroupe les périphériques dans un pool de stockage. Le pool de stockage décrit les caractéristiques physiques, à savoir la disposition du périphérique de stockage et la redondance de données, et agit en tant qu'espace de stockage de données arbitraires à partir duquel il est possible de créer des systèmes de fichiers. Désormais, les systèmes de fichiers ne sont plus limités à des périphériques individuels. Ainsi, ils peuvent partager l'espace avec l'ensemble des systèmes de fichiers du pool. Il n'est plus nécessaire de prédéterminer la taille des systèmes de fichiers, car celle-ci augmentent automatiquement au sein de l'espace alloué au pool de stockage. En cas d'ajout d'espace de stockage, tous les systèmes de fichiers du pool peuvent immédiatement utiliser l'espace supplémentaire, sans requérir des tâches supplémentaires. Selon divers aspects, le pool de stockage agit comme un système de mémoire virtuel. Lors de l'ajout d'un DIMM mémoire à un système, le système d'exploitation ne vous force pas à configurer la mémoire et à l'assigner à des processus, à l'aide de commandes spécifiques. Tous les processus du système utilisent automatiquement la mémoire supplémentaire.


Exemple 11–2 Migration d'un système de fichiers racine (/) UFS doté de volumes SVM vers un pool racine ZFS

Lors de la migration d'un système comportant des volumes SVM, ces derniers sont ignorés. Vous pouvez définir des miroirs dans le pool racine, comme le montre l'exemple suivant.

Ici, la commande lucreate, utilisée avec l'option -m, crée un environnement d'initialisation à partir du système en cours de fonctionnement. La tranche de disque c1t0d0s0 contient un système de fichiers racine (/) UFS configuré avec des volumes SVM. La commande zpool crée un pool racine, c1t0d0s0 et un volume RAID-1 (miroir), c2t0d0s0. Dans la deuxième commande lucreate, l'option -n attribue un nom à l'environnement d'initialisation à créer, c0t0d0s0. L'option -s identifie le système de fichiers racine (/) UFS. L'option -p spécifie l'emplacement du nouvel environnement d'initialisation : rpool.


# lucreate -n ufsBE -m /:/dev/md/dsk/d104:ufs
# zpool create rpool mirror c1t0d0s0 c2t1d0s0
# lucreate -n c0t0d0s0 -s ufsBE -p zpool

L'environnement d'initialisation, c0t0d0s0, est prêt à être mis à jour et activé.


Création d'un environnement d'initialisation à partir d'un pool racine ZFS

Vous pouvez créer un environnement d'initialisation ZFS dans le même pool racine ou dans un nouveau pool racine. Cette section présente les opérations suivantes :

Création d'un environnement d'initialisation dans le même pool racine

Pour la création d'un environnement d'initialisation dans le même pool racine ZFS, la commande lucreate crée un instantané de l'environnement d'initialisation source, puis un clone est généré à partir de cet instantané. La création de l'instantané et du clone est quasi immédiate et requiert un espace disque minimal. La quantité réelle d'espace disque nécessaire dépend du nombre de fichiers remplacés lors du processus de mise à niveau. L'instantané n'est accessible qu'en lecture seule, tandis que le clone est une copie de l'instantané accessible en lecture et en écriture. Aucune modification appliquée à l'environnement d'initialisation clone n'affecte l'instantané ou l'environnement d'initialisation source.


Remarque –

À mesure que le jeu de données actif est modifié, l'espace occupé par l'instantané augmente tandis que l'instantané continue de référencer les anciennes données. Par conséquent, l'instantané évite que les données soit libérées à nouveau dans le pool. Pour de plus amples informations sur les instantanés, reportez-vous au Chapitre 7, Utilisation des instantanés et des clones ZFS du Guide d’administration Solaris ZFS.


Lorsque l'environnement d'initialisation actif réside sur le même pool ZFS, l'option -p est ignorée.

La Figure 11–2 illustre la création d'un environnement d'initialisation ZFS à partir d'un pool racine ZFS. La tranche c0t0d0s0 contient un pool racine ZFS, rpool. Dans la commande lucreate, l'option -n attribue un nom à l'environnement d'initialisation à créer, new-zfsBE. Un instantané du pool racine d'origine est créé : rpool@new-zfsBE. L'instantané sert à créer le clone en tant qu'environnement d'initialisation, new-zfsBE. L'environnement d'initialisation, new-zfsBE, est prêt à être mis à niveau et activé.

Figure 11–2 Création d'un environnement d'initialisation dans le même pool racine

Le contexte illustre la figure.


Exemple 11–3 Création d'un environnement d'initialisation dans le même pool racine ZFS

Cet exemple utilise la même commande que celle de la Figure 11–2 qui crée un environnement d'initialisation dans le même pool racine. La commande lucreate nomme l'environnement d'initialisation actif avec l'option -c zfsBE, tandis que l'option -n new-zfsBE crée le nouvel environnement d'initialisation. La commande zfs list affiche les jeux de données ZFS avec le nouvel environnement d'initialisation et l'instantané.


# lucreate -c zfsBE -n new-zfsBE
# zfs list
AME                        USED  AVAIL  REFER  MOUNTPOINT 
rpool                      9.29G  57.6G    20K  /rpool
rpool/ROOT                 5.38G  57.6G    18K  /rpool/ROOT
rpool/ROOT/zfsBE           5.38G  57.6G   551M  
rpool/ROOT/zfsBE@new-zfsBE 66.5K      -   551M  -
rpool/ROOT/new-zfsBE       5.38G  57.6G   551M  /tmp/.alt.luupdall.110034
rpool/dump                 1.95G      -  1.95G  - 
rpool/swap                 1.95G      -  1.95G  - 

Création d'un environnement d'initialisation dans un nouveau pool racine

Vous pouvez utiliser la commande lucreate pour copier un pool racine ZFS dans un nouveau pool racine ZFS. Selon votre système, la copie peut prendre un certain temps.

La Figure 11–3 illustre la création d'un pool racine ZFS, rpool2, par la commande zpool sur c0t1d0s5, car le pool racine ZFS n'existe pas encore. La commande lucreate, utilisée avec l'option -n, attribue un nom à l'environnement d'initialisation à créer, new-zfsBE. L'option -p spécifie l'emplacement du nouvel environnement d'initialisation.

Figure 11–3 Création d'un environnement d'initialisation dans un nouveau pool racine

Le contexte illustre la figure.


Exemple 11–4 Création d'un environnement d'initialisation dans un pool racine ZFS différent

Cet exemple utilise les mêmes commandes que celles de la Figure 11–3 qui créent un pool racine, puis un environnement d'initialisation dans le nouveau pool racine. Ici, la commande zpool create crée zpool2. La commande zfs list montre qu'aucun jeu de données ZFS n'est créé dans rpool2. Les jeux de données sont créés avec la commande lucreate.


# zpool create rpool2 c0t2d0s5
# zfs list
NAME                             USED    AVAIL   REFER   MOUNTPOINT 
rpool2                           9.29G    57.6G     20K   /rpool2 
rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
rpool/ROOT                       5.46G    57.6G     18K   legacy
rpool/ROOT/zfsBE                 5.46G    57.6G   551M  
rpool/dump                       3.99G        -   3.99G   - 
rpool/swap                       3.99G        -   3.99G   - 

Le pool racine ZFS, rpool2, est créé sur la tranche de disque c0t2d0s5.


# lucreate -n new-zfsBE -p rpool2
# zfs list
NAME                             USED    AVAIL   REFER   MOUNTPOINT 
rpool2                           9.29G    57.6G     20K   /rpool2 
rpool2/ROOT/                     5.38G    57.6G     18K   /rpool2/ROOT 
rpool2/ROOT/new-zfsBE            5.38G    57.6G    551M   /tmp/.new.luupdall.109859
rpool2/dump                      3.99G        -   3.99G   - 
rpool2/swap                      3.99G        -   3.99G   - 
rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
rpool/ROOT                       5.46G    57.6G     18K   legacy
rpool/ROOT/zfsBE                 5.46G    57.6G   551M  
rpool/dump                       3.99G        -   3.99G   - 
rpool/swap                       3.99G        -   3.99G   - 

L'environnement d'initialisation, new-zfsBE, est créé sur rpool2 avec les autres jeux de données, ROOT, dump et swap. L'environnement d'initialisation, new-zfsBE, est prêt à être mis à niveau et activé.


Création d'un environnement d'initialisation à partir d'une source autre que le système en cours de fonctionnement

Si vous créez un environnement d'initialisation à partir d'une source autre que le système en cours de fonctionnement, vous devez utiliser la commande lucreate avec l'option -s. Cette option -fonctionne de la même manière qu'un système de fichiers UFS et fournit le chemin d'accès vers le -système de fichiers racine (/) alternatif. Ce système de fichiers racine (/) constitue la source pour la création du pool racine ZFS. Ce système alternatif peut être soit un système de fichiers racine (/) UFS, soit un pool racine ZFS. Selon votre système, la copie peut prendre un certain temps.


Exemple 11–5 Création d'un environnement d'initialisation à partir d'un système de fichiers racine (/) alternatif.

La commande suivante crée un pool racine ZFS à partir d'un pool racine ZFS existant. L'option -n attribue un nom à l'environnement d'initialisation à créer, new-zfsBE. L'option -s spécifie l'environnement d'initialisation, source-zfsBE, à utiliser en tant que source de la copie à la place de l'environnement d'initialisation actif. L'option -p spécifie l'emplacement du nouvel environnement d'initialisation : newpool2.


# lucreate -n new-zfsBE  -s source-zfsBE -p rpool2

L'environnement d'initialisation, nouveau-zfsBE, est prêt à être mis à niveau et activé.


Création d'un environnement d'initialisation ZFS sur un système comportant des zones non globales

Vous pouvez utiliser Solaris Live Upgrade pour faire migrer vos zones non globales vers un système de fichiers racine ZFS. Pour obtenir la présentation, la planification et les procédures détaillées, reportez-vous au Chapitre 14Solaris Live Upgrade pour ZFS comportant des zones non globales.

Ressources supplémentaires

Pour de plus amples informations sur les sujets traités dans ce chapitre, reportez-vous aux ressources répertoriées dans le Tableau 11–1.

Tableau 11–1 Ressources supplémentaires

Ressource 

Emplacement 

Pour obtenir des informations concernant le format ZFS, notamment sur la présentation, la planification et les instructions étape par étape 

Guide d’administration Solaris ZFS

Pour l'utilisation de Solaris Live Upgrade sur un système doté de systèmes de fichiers UFS 

Partie I, Mise à niveau avec Solaris Live Upgrade de ce manuel

Chapitre 12 Solaris Live Upgrade pour ZFS (Planification)

Ce chapitre présente la configuration système requise et propose des directives que vous devez consulter avant d'effectuer une migration d'un système de fichiers UFS vers un système de fichiers ZFS ou avant de créer un environnement d'initialisation ZFS à partir d'un pool racine ZFS.


Remarque –

La création d'environnements d'initialisation à l'aide de Solaris Live Upgrade est une nouvelle fonction de la version Solaris 10 10/08. Lorsque vous utilisez Solaris Live Upgrade sur un système de fichiers UFS, les paramètres de la ligne de commande et l'opération de Solaris Live Upgrade restent inchangés. Pour utiliser Solaris Live Update avec des systèmes de fichiers UFS, reportez-vous à la Partie I, Mise à niveau avec Solaris Live Upgrade de ce manuel.


Configuration système requise et restrictions relatives à l'utilisation de Solaris Live Upgrade

Assurez-vous de bien avoir lu et compris les exigences et restrictions suivantes avant de procéder à la migration d'un système de fichiers UFS vers un système de fichiers ZFS ou avant de créer un environnement d'initialisation ZFS à partir d'un pool racine ZFS. Outre les configurations système ci-dessous, vous devez également prendre en compte celles répertoriées au Chapitre 6, Installation de système de fichiers racine ZFS(planification) du Guide d’installation de Solaris 10 10/09 : planification d’installation et de mise à niveau.

Tableau 12–1 Configuration requise et restrictions

Configuration requise ou restriction 

Description 

Informations 

La version Solaris 10 10/08 (ou une version ultérieure) doit être installée. 

La migration d'un système de fichiers UFS vers un pool racine ZFS à l'aide de Solaris Live Upgrade et la création d'un environnement d'initialisation dans un pool racine sont de nouvelles fonctions de la version Solaris 10 10/08. Cette version contient le logiciel nécessaire à l'utilisation de Solaris Live Upgrade avec UFS. Pour utiliser ZFS, cette version est la version minimale à installer.

 

Espace disque 

La quantité minimum d'espace de pools disponible pour un système de fichiers racine ZFS initialisable dépend de la quantité de mémoire physique et d'espace disque disponibles, ainsi que du nombre d'environnements d'initialisation à créer.  

Pour plus d'explications, reportez-vous à la section Espace disque requis pour une installation ZFS. du Guide d’installation de Solaris 10 10/09 : planification d’installation et de mise à niveau.

Lorsque vous procédez à la migration d'un système de fichiers racine (/) UFS vers un pool racine ZFS, prenez compte des exigences ci-contre.

  • Une migration n'est possible que depuis un système de fichiers UFS vers un système de fichiers ZFS.

    • Un système de fichiers autre qu'un système de fichiers UFS ne peut pas être migré vers un pool racine ZFS.

    • Un système de fichiers UFS ne peut pas être créé à partir d'un pool racine ZFS.

  • Avant la migration, un pool de stockage ZFS doit exister.

  • Pour pouvoir être mis à niveau et initialisé, le pool de stockage ZFS doit être créé avec des tranches, plutôt qu'avec un disque complet.

    • Le pool créé avec des tranches peut être mis en miroir, contrairement à une configuration RAID-Z ou non redondante composée de plusieurs disques. Les informations relatives aux périphériques SVM doivent déjà apparaître dans le répertoire /dev/md/[r]dsk.

    • Le pool doit disposer d'une étiquette SMI. Un disque étiqueté EFI ne peut pas être initialisé.

    • x86 uniquement : le pool ZFS doit se trouver dans une tranche comportant une partition fdisk.

Lorsque vous procédez à la migration de systèmes de fichiers partagés, vous ne pouvez pas les copier sur une tranche distincte du nouveau pool racine ZFS. 

Par exemple, lorsque vous utilisez Solaris Live Upgrade avec un système de fichiers racine (/) UFS, l'option -m vous permet de copier le système de fichiers /export sur un autre périphérique. Par contre, vous ne pouvez pas utiliser l'option -m pour copier le système de fichiers partagé sur un pool ZFS.

 

Lorsque vous procédez à la migration d'un système de fichiers racine UFS comportant des zones non globales, les systèmes de fichiers partagés ne sont pas migrés. 

Sur un système comportant un système de fichiers racine (/) UFS et des zones non globales, ces zones sont migrées si elles se trouvent dans un système de fichiers critique faisant partie intégrante de la migration d'UFS vers ZFS. Ou, si vous procédez à la mise à niveau dans le même pool ZFS, la zone est clonée. Si une zone non globale existe dans un système de fichiers (/) UFS partagé, pour effectuer une migration vers un pool racine ZFS, vous devez d'abord mettre à niveau la zone, comme dans les versions précédentes de Solaris.

N'utilisez pas la commande ZFS rename.

La fonction Solaris Live Upgrade ne prend pas en charge la commande de changement de nom, ni ses commandes dérivées, telles que ludelete. Leur utilisation se terminera par un échec. Si vous souhaitez continuer d'utiliser vos environnements d'initialisation, ne renommez ni vos pools ZFS, ni vos systèmes de fichiers.

 

Définissez les propriétés des jeux de données avant d'utiliser la commande lucreate.

Solaris Live Upgrade crée les jeux de données pour l'environnement d'initialisation et des volumes ZFS pour la zone swap et le périphérique dump, mais ne prend pas en compte les modifications des propriétés des jeux de données. Cela signifie que si vous souhaitez activer une propriété des jeux de données dans le nouvel environnement d'initialisation, vous devez définir la propriété avant d'exécuter la commande lucreate. Exemple :


# zfs set compression=on rpool/ROOT

Reportez-vous à la section Présentation des propriétés ZFS du Guide d’administration Solaris ZFS.

Lors de la création d'un environnement d'initialisation ZFS dans le même pool racine ZFS, vous ne pouvez pas utiliser les options d'inclusion et d'exclusion de la commande lucreate pour personnaliser le contenu.

Vous ne pouvez pas utiliser les options -f, -o, -y, -Y et -z pour inclure ou exclure des fichiers de l'environnement d'initialisation principal lorsque vous créez un environnement d'initialisation dans le même pool racine ZFS. Toutefois, vous pouvez utiliser ces options dans les cas suivants :

  • Création d'un environnement d'initialisation à partir d'un système de fichiers UFS vers un autre système de fichiers UFS

  • Création d'un environnement d'initialisation à partir d'un système de fichiers UFS vers un pool racine ZFS

  • Création d'un environnement d'initialisation à partir d'un pool racine ZFS vers un autre pool racine ZFS

Pour plus d'informations sur l'utilisation des options d'inclusion et d'exclusion, reportez-vous à la section Création d'un environnement d'initialisation et personnalisation du contenu.

Vous ne pouvez pas utiliser Solaris Live Upgrade pour mettre à niveau des systèmes de fichiers ZFS non racine. 

   

Ressources supplémentaires

Pour de plus amples informations sur les sujets traités dans ce chapitre, reportez-vous aux ressources répertoriées dans le Tableau 12–2.

Tableau 12–2 Ressources supplémentaires

Ressource 

Emplacement 

Pour plus d'informations sur la planification d'une installation ZFS 

Chapitre 6, Installation de système de fichiers racine ZFS(planification) du Guide d’installation de Solaris 10 10/09 : planification d’installation et de mise à niveau

Pour obtenir des informations concernant le format ZFS, notamment sur la présentation, la planification et les instructions étape par étape 

Guide d’administration Solaris ZFS

Pour l'utilisation de Solaris Live Upgrade sur un système doté de systèmes de fichiers UFS 

Partie I, Mise à niveau avec Solaris Live Upgrade de ce manuel

Chapitre 13 Création d'un environnement d'initialisation pour des pools racine ZFS

Ce chapitre décrit les procédures détaillées de création d'un environnement d'initialisation ZFS avec Solaris Live Upgrade.


Remarque –

La migration à partir d'un système de fichiers UFS vers un pool racine ZFS et la création d'environnements racine ZFS à l'aide de Solaris Live Update sont des nouveautés de la version Solaris 10 10/08. Pour utiliser Solaris Live Update avec des systèmes de fichiers UFS, reportez-vous à la Partie I, Mise à niveau avec Solaris Live Upgrade de ce manuel.


Ce chapitre propose les procédures correspondant aux tâches suivantes :

Pour obtenir les procédures sur l'utilisation de ZFS lorsque des zones non globales sont installées, reportez-vous au Chapitre 14Solaris Live Upgrade pour ZFS comportant des zones non globales.

Migration d'un système de fichiers UFS vers un système de fichiers ZFS

Cette procédure décrit la migration d'un système de fichiers UFS vers un système de fichiers ZFS. La création d'un environnement d'initialisation est une méthode de copie des systèmes de fichiers critiques d'un environnement d'initialisation UFS actif vers un pool racine ZFS. La commande lucreate copie les systèmes de fichiers critiques vers un nouvel environnement d'initialisation du pool racine ZFS existant. Les systèmes de fichiers définis par l'utilisateur (partageables) ne sont ni copiés ni partagés avec l'environnement d'initialisation UFS source. En outre, le système de fichiers UFS et le pool racine ZFS ne partagent pas /swap. Une présentation des systèmes de fichiers critiques et partageables est proposée à la section Types de systèmes de fichiers.

ProcedureMéthode de migration d'un système de fichiers UFS vers un système de fichiers ZFS


Remarque –

Pour faire migrer un système de fichiers racine (/) UFS vers un pool racine ZFS, vous devez donner le nom du pool racine. Les systèmes de fichiers critiques sont copiés dans le pool racine.


  1. Avant d'exécuter Solaris Live Upgrade pour la première fois, vous devez installer les derniers packages de Solaris Live Upgrade à partir du support d'installation, ainsi que les patchs répertoriés dans l'info doc SunSolve 206844. Recherchez l'info doc 206844 (ex 72099) sur le site Web SunSolve.

    Ces patchs et packages garantissent que vous disposez des tous derniers correctifs de bogues et des nouvelles fonctions de la version. Veillez à installer tous les patchs destinés à votre système avant de créer un nouvel environnement d'initialisation.

    Les étapes suivantes décrivent les procédures de l'info doc SunSolve 206844.


    Remarque –

    Pour créer des environnements d'initialisation ZFS à l'aide de Solaris Live Upgrade, la version installée sur votre système ne doit pas être antérieure à la version Solaris 10 10/08, car les versions précédentes ne disposent pas des logiciels Solaris Live Upgrade et ZFS pour procéder à l'exécution de ces tâches.


    1. Connectez-vous en tant que superutilisateur ou prenez un rôle équivalent.

    2. Sur le site web de SunSolve, suivez les instructions contenues dans l'info doc 206844 pour supprimer et ajouter les packages Solaris Live Upgrade.

      Les trois packages Solaris Live Upgrade SUNWluu, SUNWlur et SUNWlucfg contiennent le logiciel nécessaire à la mise à niveau à l'aide de Solaris Live Upgrade. Outre les fonctionnalités existantes, ils intègrent de nouvelles fonctions ainsi que des correctifs de bogues. La mise à niveau de la version cible échoue si vous ne supprimez pas les packages existants et si vous installez les nouveaux packages sur le système préalablement à l'utilisation de Solaris Live Upgrade. Le package SUMWlucfg est un nouvel élément de la version Solaris 10 8/07. Si vous utilisez des packages Solaris Live Upgrade d'une version antérieure à Solaris 10 8/07, vous n'avez pas besoin de supprimer ce package.


      # pkgrm SUNWlucfg SUNWluu SUNWlur
      
    3. Installez les nouveaux packages Solaris Live Upgrade de la version pour laquelle vous effectuez la mise à niveau. Pour obtenir les instructions correspondantes, reportez-vous à la section Installation de Solaris Live Upgrade.

    4. Avant d'installer ou d'exécuter Solaris Live Upgrade, vous devez installer les patchs suivants. Ces patchs garantissent que vous disposez des tout derniers correctifs de bogues et fonctions de la version.

      Vérifiez que vous disposez de la dernière liste de patchs en visitant le site Web SunSolve. Recherchez l'info doc 206844 (ex 72099) sur le site Web SunSolve.

      • Si vous stockez les patchs sur un disque local, créez un répertoire, tel que /var/tmp/lupatches, puis téléchargez les patchs dans ce répertoire.

      • Vous obtiendrez la liste des patchs sur le site Web SunSolve.

      • Allez dans le répertoire des patchs.


        # cd /var/tmp/lupatches
        
      • Installez les patchs en utilisant la commande patchadd.


        # patchadd patch_id
        

        id_patch correspond au(x) numéro(s) de patch(s). Séparez les noms de patch par un espace.


        Remarque –

        Vous devez appliquer les patchs dans l'ordre spécifié dans l'info doc 206844.


      • Réinitialisez le système si nécessaire. Certains patchs doivent être réinitialisés pour être effectifs.

        x86 uniquement. La réinitialisation du système est requise ou Solaris Live Upgrade échoue.


        # init 6
        

        Vous disposez maintenant des packages et des patchs nécessaires à une migration réussie.

  2. Créez un pool racine ZFS.

    Pour pouvoir être initialisé et mis à niveau, le pool racine ZFS doit se trouver sur une tranche unique.


    # zpool create rpool  c0t1d0s5
    
    rpool

    Spécifie le nom du pool racine ZFS à créer.

    c0t1d0s5

    Crée le pool racine sur la tranche de disque, c0t1d0s5.

    Pour obtenir des informations sur la création d'un pool racine, reportez-vous au Guide d’administration Solaris ZFS.

  3. Procédez à la migration du système de fichiers racine (/) UFS vers le nouveau pool racine ZFS.


    # lucreate [-c ufsBE] -n new-zfsBE -p rpool
    
    -cufsBE

    Attribue le nom ufsBE à l'environnement d'initialisation UFS en cours. Cette option n'est pas obligatoire et n'est utilisée que pour créer un premier environnement d'initialisation. Si vous exécutez la commande lucreate pour la première fois et omettez l'option -c, le logiciel crée pour vous un nom par défaut.

    -n new-zfsBE

    Attribue le nom new-zfsBE à l'environnement d'initialisation à créer. Le nom doit être unique sur le système.

    -p rpool

    Place le dernier système de fichiers racine (/) ZFS créé dans le pool racine ZFS défini dans rpool.

    La création d'un environnement d'initialisation ZFS peut prendre un certain temps. Les données du système de fichiers UFS sont copiées dans le pool racine ZFS. Une fois l'environnement d'initialisation inactif créé, vous pouvez utiliser la commande luupgrade ou luactivate pour mettre à niveau ou activer cet environnement.

  4. Si vous le souhaitez, vérifiez que la création de l'environnement d'initialisation est terminée.

    Dans cet exemple, la commande lustatus génère un rapport relatif à l'état de la création et de l'activation de l'environnement d'initialisation.


    # lustatus
    boot environment   Is         Active   Active     Can	    Copy 
    Name               Complete   Now	  OnReboot   Delete	 Status 
    -----------------------------------------------------------------
    ufsBE               yes       yes      yes        no         -
    new-zfsBE           yes       no       no        yes         -
  5. Si vous le souhaitez, vérifiez les informations de base sur les jeux de données du système.

    La commande list affiche le nom de tous les jeux de données du système. Dans cet exemple, rpool est le nom du pool ZFS et new-zfsBE est le nom du dernier environnement d'initialisation ZFS créé.


    # zfs list
    NAME                        USED  AVAIL  REFER  MOUNTPOINT 
    rpool                      9.29G  57.6G    20K  /rpool
    rpool/ROOT                 5.38G  57.6G    18K  /rpool/ROOT
    rpool/ROOT/new-zfsBE       5.38G  57.6G   551M  /tmp/.alt.luupdall.110034
    rpool/dump                 1.95G      -  1.95G  - 
    rpool/swap                 1.95G      -  1.95G  - 

    Les points de montage répertoriés pour le nouvel environnement d'initialisation sont créés temporairement jusqu'à l'exécution de la commande luactivate. Les volumes /dump et /swap ne sont pas partagés avec l'environnement d'initialisation UFS d'origine, mais dans le pool racine ZFS et dans les environnements d'initialisation de ce pool.

    Vous pouvez à présent mettre à niveau et activer le nouvel environnement d'initialisation. Voir Exemple 13–1.


Exemple 13–1 Migration d'un système de fichiers racine (/) UFS vers un pool racine ZFS

Dans cet exemple, le pool racine ZFS, rpool, est créé sur une tranche distincte, C0t0d0s4. La commande lucreate migre l'environnement d'initialisation UFS en cours d'exécution, c0t0d0, vers le nouvel environnement d'initialisation ZFS, new-zfsBE, et place ce dernier dans rpool.


# zpool create rpool C0t0d0s4

# zfs list
NAME                        USED  AVAIL  REFER  MOUNTPOINT 
rpool                      9.29G  57.6G    20K  /rpool
# lucreate -c c0t0d0 -n new-zfsBE -p rpool
Analyzing system configuration.
Current boot environment is named <c0t0d0>.
Creating initial configuration for primary boot environment <c0t0d0>.
The device </dev/dsk/c0t0d0> is not a root device for any boot 
environment; cannot get BE ID.
PBE configuration successful: PBE name <c0t0d0> PBE Boot Device 
</dev/dsk/c0t0d0>.
Comparing source boot environment <c0t0d0> file systems with the file 
system(s) you specified for the new boot environment. Determining which 
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t0d0s0> is not a root device for any boot 
environment; cannot get BE ID.
Creating configuration for boot environment <new-zfsBE>.
Source boot environment is <c0t0d0>.
Creating boot environment <new-zfsBE>.
Creating file systems on boot environment <new-zfsBE>.
Creating <zfs> file system for </> in zone <global> on 
<rpool/ROOT/new-zfsBE>.
Populating file systems on boot environment <new-zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </>.
Making boot environment <zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-cBc.mnt
updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive
Population of boot environment <new-zfsBE> successful.
Creation of boot environment <new-zfsBE> successful.

# lustatus
boot environment   Is         Active   Active     Can	    Copy 
Name               Complete   Now	  OnReboot   Delete	 Status 
------------------------------------------------------------------------ 
c0t0d0             yes       yes      yes        no         - 
new-zfsBE           yes       no       no        yes       -

# zfs list
NAME                        USED  AVAIL  REFER  MOUNTPOINT 
rpool                      9.29G  57.6G    20K  /rpool
rpool/ROOT                 5.38G  57.6G    18K  /rpool/ROOT
rpool/ROOT/zfsBE           5.38G  57.6G   551M  
rpool/ROOT/new-zfsBE       5.38G  57.6G   551M  /tmp/.alt.luupdall.110034
rpool/dump                 1.95G      -  1.95G  - 
rpool/swap                 1.95G      -  1.95G  - 

Vous pouvez à présent mettre à niveau ou activer le nouvel environnement d'initialisation.

Dans cet exemple, le nouvel environnement d'initialisation est mis à niveau à l'aide de la commande luupgrade à partir d'une image stockée à l'emplacement indiqué via l'option -s.


# luupgrade -n zfsBE -u -s /net/install/export/s10/combined.s10
 51135 blocks 
miniroot filesystem is <lofs>
Mounting miniroot at 
</net/install/export/solaris_10/combined.solaris_10_wos
/Solaris_10/Tools/Boot> 
Validating the contents of the media 
</net/install/export/s10/combined.s10>. 
The media is a standard Solaris media. 
The media contains an operating system upgrade image. 
The media contains Solaris version <10_1008>. 
Constructing upgrade profile to use. 
Locating the operating system upgrade program. 
Checking for existence of previously scheduled Live 
Upgrade requests. 
Creating upgrade profile for BE <zfsBE>. 
Determining packages to install or upgrade for BE <zfsBE>. 
Performing the operating system upgrade of the BE <zfsBE>. 
CAUTION: Interrupting this process may leave the boot environment 
unstable or unbootable. 
Upgrading Solaris: 100% completed 
Installation of the packages from this media is complete. 
Adding operating system patches to the BE <zfsBE>. 
The operating system patch installation is complete. 
INFORMATION: The file /var/sadm/system/logs/upgrade_log on boot 
environment <zfsBE> contains a log of the upgrade operation. 
INFORMATION: The file var/sadm/system/data/upgrade_cleanup on boot 
environment <zfsBE> contains a log of cleanup operations required. 
INFORMATION: Review the files listed above. Remember that all 
of the files are located on boot environment <zfsBE>. 
Before you activate boot environment <zfsBE>, determine if any 
additional system maintenance is required or if additional media 
of the software distribution must be installed. 
The Solaris upgrade of the boot environment <zfsBE> is complete.

Après sa création, vous pouvez à tout moment activer le nouvel environnement d'initialisation.


# luactivate new-zfsBE
**********************************************************************

The target boot environment has been activated. It will be used when you 
reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You 
MUST USE either the init or the shutdown command when you reboot. If you 
do not use either init or shutdown, the system will not boot using the 
target BE.

**********************************************************************
In case of a failure while booting to the target BE, the following process 
needs to be followed to fallback to the currently working boot environment:

1. Enter the PROM monitor (ok prompt).

2. Change the boot device back to the original boot environment by typing:

     setenv boot-device /pci@1f,0/pci@1/scsi@4,1/disk@2,0:a

3. Boot to the original boot environment by typing:

     boot

**********************************************************************

Modifying boot archive service
Activation of boot environment <new-zfsBE> successful.

Réinitialisez le système dans l'environnement d'initialisation ZFS.


# init 6
# svc.startd: The system is coming down.  Please wait.
svc.startd: 79 system services are now being stopped.
.
.
.

Si vous procédez à la restauration de l'environnement d'initialisation UFS, vous devrez importer à nouveau tout pool de stockage ZFS créé dans l'environnement d'initialisation ZFS, car ces pools ne sont pas automatiquement disponibles dans l'environnement UFS. Lors de la restauration de l'environnement UFS, des messages, similaires à ceux de l'exemple ci-dessous, apparaîtront.


# luactivate c0t0d0
WARNING: The following files have changed on both the current boot 
environment <new-zfsBE> zone <global> and the boot environment 
to be activated <c0t0d0>:
 /etc/zfs/zpool.cache
INFORMATION: The files listed above are in conflict between the current 
boot environment <zfsBE> zone <global> and the boot environment to be 
activated <c0t0d0>. These files will not be automatically synchronized 
from the current boot environment <new-zfsBE> when boot environment <c0t0d0>

Création d'un environnement d'initialisation dans le même pool racine ZFS

Si vous disposez déjà d'un pool racine ZFS et que vous souhaitez créer un environnement d'initialisation ZFS dans ce pool, suivez la procédure ci-dessous. Une fois cet environnement créé, vous pouvez le mettre à niveau et l'activer selon vos besoins. L'option -p n'est pas nécessaire pour la création d'un environnement d'initialisation dans le même pool.

ProcedureMéthode de création d'un environnement d'initialisation ZFS dans le même pool racine ZFS

  1. Avant d'exécuter Solaris Live Upgrade pour la première fois, vous devez installer les derniers packages de Solaris Live Upgrade à partir du support d'installation, ainsi que les patchs répertoriés dans l'info doc SunSolve 206844. Recherchez l'info doc 206844 (ex 72099) sur le site Web SunSolve.

    Ces patchs et packages garantissent que vous disposez des tous derniers correctifs de bogues et des nouvelles fonctions de la version. Veillez à installer tous les patchs destinés à votre système avant de créer un nouvel environnement d'initialisation.

    Les étapes suivantes décrivent les procédures de l'info doc SunSolve 206844.


    Remarque –

    Pour créer des environnements d'initialisation ZFS à l'aide de Solaris Live Upgrade, la version installée sur votre système ne doit pas être antérieure à la version Solaris 10 10/08, car les versions précédentes ne disposent pas des logiciels Solaris Live Upgrade et ZFS pour procéder à l'exécution de ces tâches.


    1. Connectez-vous en tant que superutilisateur ou prenez un rôle équivalent.

    2. Sur le site web de SunSolve, suivez les instructions contenues dans l'info doc 206844 pour supprimer et ajouter les packages Solaris Live Upgrade.

      Les trois packages Solaris Live Upgrade SUNWluu, SUNWlur et SUNWlucfg contiennent le logiciel nécessaire à la mise à niveau à l'aide de Solaris Live Upgrade. Outre les fonctionnalités existantes, ils intègrent de nouvelles fonctions ainsi que des correctifs de bogues. La mise à niveau de la version cible échoue si vous ne supprimez pas les packages existants et si vous installez les nouveaux packages sur le système préalablement à l'utilisation de Solaris Live Upgrade. Le package SUMWlucfg est un nouvel élément de la version Solaris 10 8/07. Si vous utilisez des packages Solaris Live Upgrade d'une version antérieure à Solaris 10 8/07, vous n'avez pas besoin de supprimer ce package.


      Remarque –

      Le package SUMWlucfg est un nouvel élément de la version Solaris 10 8/07. Si vous utilisez des packages Solaris Live Upgrade d'une version précédente, vous n'avez pas besoin de supprimer ce package.



      # pkgrm SUNWlucfg SUNWluu SUNWlur
      
    3. Installez les nouveaux packages Solaris Live Upgrade. Pour obtenir les instructions correspondantes, reportez-vous à la section Installation de Solaris Live Upgrade.

    4. Avant d'installer ou d'exécuter Solaris Live Upgrade, vous devez installer les patchs suivants. Ces patchs garantissent que vous disposez des tout derniers correctifs de bogues et fonctions de la version.

      Vérifiez que vous disposez de la dernière liste de patchs en visitant le site Web SunSolve. Recherchez l'info doc 206844 (ex 72099) sur le site Web SunSolve.

      • Si vous stockez les patchs sur un disque local, créez un répertoire, tel que /var/tmp/lupatches, puis téléchargez les patchs dans ce répertoire.

      • Vous obtiendrez la liste des patchs sur le site Web SunSolve.

      • Accédez au répertoire des patchs comme dans l'exemple ci-dessous.


        # cd /var/tmp/lupatches
        
      • Installez les patchs en utilisant la commande patchadd.


        # patchadd -M path-to-patches patch_id patch_id
        

        path-to-patches correspond au chemin vers le répertoire des patchs, par exemple /var/tmp/lupatches. id_patch correspond au(x) numéro(s) de patch(s). Séparez les noms de patch par un espace.


        Remarque –

        Vous devez appliquer les patchs dans l'ordre spécifié dans l'info doc 206844.


      • Réinitialisez le système si nécessaire. Certains patchs doivent être réinitialisés pour être effectifs.

        x86 uniquement. La réinitialisation du système est requise ou Solaris Live Upgrade échoue.


        # init 6
        

        Vous disposez maintenant des packages et des patchs nécessaires à la création d'un nouvel environnement d'initialisation.

  2. Créez le nouvel environnement d'initialisation.


    # lucreate [-c zfsBE] -n new-zfsBE
    
    -c zfsBE

    Attribue le nom zfsBE à l'environnement d'initialisation en cours. Cette option n'est pas obligatoire et n'est utilisée que pour créer un premier environnement d'initialisation. Si vous exécutez la commande lucreate pour la première fois et omettez l'option -c le logiciel crée pour vous un nom par défaut.

    -n nouveau-zfsBE

    Attribue le nom à l'environnement d'initialisation à créer. Le nom doit être unique sur le système.

    La création de l'environnement d'initialisation est quasi instantanée. Pour chaque jeu de données du pool racine ZFS en cours, un instantané est créé, après quoi un clone est créé pour chaque instantané. Les instantanés occupent de l'espace disque de manière raisonnable et ce processus nécessite très peu d'espace disque. Une fois l'environnement d'initialisation inactif créé, vous pouvez utiliser la commande luupgrade ou luactivate pour mettre à niveau ou activer cet environnement.

  3. Si vous le souhaitez, vérifiez que la création de l'environnement d'initialisation est terminée.

    La commande lustatus génère un rapport relatif à l'état de la création et de l'activation de l'environnement d'initialisation.


    # lustatus
    boot environment   Is        Active  Active     Can	    Copy 
    Name               Complete  Now	 OnReboot   Delete	 Status 
    ------------------------------------------------------------------------ 
    zfsBE               yes       yes     yes         no             -
    new-zfsBE           yes       no      no          yes            -
  4. Si vous le souhaitez, vérifiez les informations de base sur les jeux de données du système.

    Dans cet exemple, le pool racine ZFS se nomme rpool et le symbole représente un instantané. Les points de montage pour l'environnement d'initialisation sont créés temporairement jusqu'à l'exécution de la commande luactivate. Les volumes /dump et /swap sont partagés entre le pool racine ZFS et les environnements d'initialisation dans le pool racine.


    # zfs list
    NAME                                      USED  AVAIL  REFER  MOUNTPOINT 
    rpool                                    9.29G  57.6G    20K  /rpool 
    rpool/ROOT                               5.38G  57.6G    18K  /rpool/ROOT 
    rpool/ROOT/zfsBE                         5.38G  57.6G   551M  
    rpool/ROOT/zfsBE@new-zfsBE               66.5K      -   551M  -
    rpool/ROOT/new-zfsBE                     85.5K  57.6G   551M  /tmp/.alt.103197
    rpool/dump                               1.95G      -  1.95G  - 
    rpool/swap                               1.95G      -  1.95G  - 

    Vous pouvez à présent mettre à niveau et activer le nouvel environnement d'initialisation. Voir Exemple 13–2.


Exemple 13–2 Création d'un environnement d'initialisation dans le même pool racine ZFS

Les commandes suivantes créent un environnement d'initialisation ZFS, appelé new-zfsBE. L'option -p n'est pas nécessaire puisque l'environnement d'initialisation est créé dans le même pool racine.


# lucreate [-c zfsBE] -n new-zfsBE
Analyzing system configuration.
Comparing source boot environment <zfsBE> file systems with the file
system(s) you specified for the new boot environment. Determining which
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Creating configuration for boot environment new-zfsBE.
Source boot environment is zfsBE.
Creating boot environment new-zfsBE.
Cloning file systems from boot environment zfsBE to create 
boot environment new-zfsBE.
Creating snapshot for <rpool> on <rpool> Creating clone for <rpool>. 
Setting canmount=noauto for <rpool> in zone <global> on <rpool>. 
Population of boot environment zfsBE successful on <rpool>.
# lustatus
boot environment   Is        Active  Active     Can	    Copy 
Name               Complete  Now	   OnReboot   Delete	 Status 
------------------------------------------------------------------------ 
zfsBE               yes       yes     yes         no          - 
new-zfsBE           yes       no      no          yes         -
# zfs list
NAME                                      USED  AVAIL  REFER  MOUNTPOINT 
rpool                                    9.29G  57.6G    20K  /rpool 
rpool/ROOT                               5.38G  57.6G    18K  /rpool/ROOT 
rpool/ROOT/zfsBE                         5.38G  57.6G   551M  
rpool/ROOT/zfsBE@new-zfsBE               66.5K      -   551M  - 
rpool/ROOT/new-zfsBE                     85.5K  57.6G   551M  /tmp/.alt.103197 
rpool/dump                               1.95G      -  1.95G  - 
rpool/swap                               1.95G      -  1.95G  - 

Vous pouvez à présent mettre à niveau et activer le nouvel environnement d'initialisation. Pour obtenir un exemple de mise à niveau d'un environnement d'initialisation ZFS, reportez-vous à l'Exemple 13–1. Pour connaître d'autres utilisations de la commande luupgrade, reportez-vous au Chapitre 5Procédure de mise à niveau avec Solaris Live Upgrade – Tâches.


# luactivate new-zfsBE
**********************************************************************

The target boot environment has been activated. It will be used when you 
reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You 
MUST USE either the init or the shutdown command when you reboot. If you 
do not use either init or shutdown, the system will not boot using the 
target BE.

**********************************************************************
In case of a failure while booting to the target BE, the following process 
needs to be followed to fallback to the currently working boot environment:

1. Enter the PROM monitor (ok prompt).

2. Change the boot device back to the original boot environment by typing:

     setenv boot-device /pci@1f,0/pci@1/scsi@4,1/disk@2,0:a

3. Boot to the original boot environment by typing:

     boot

**********************************************************************

Modifying boot archive service
Activation of boot environment <new-zfsBE> successful.

Réinitialisez le système dans l'environnement d'initialisation ZFS.


# init 6
# svc.startd: The system is coming down.  Please wait.
svc.startd: 79 system services are now being stopped.
.
.
.

Création d'un environnement d'initialisation dans un nouveau pool racine

Si vous disposez déjà d'un pool racine ZFS, mais que vous souhaitez créer un environnement d'initialisation ZFS dans un nouveau pool, suivez la procédure ci-dessous. Une fois cet environnement créé, vous pouvez le mettre à niveau et l'activer selon vos besoins. L'option -p est nécessaire pour enregistrer l'emplacement du nouvel environnement d'initialisation. Pour pouvoir être initialisé et mis à niveau, le pool racine ZFS existant doit se trouver sur une tranche distincte.

ProcedureMéthode de création d'un environnement d'initialisation dans un nouveau pool racine ZFS

  1. Avant d'exécuter Solaris Live Upgrade pour la première fois, vous devez installer les derniers packages de Solaris Live Upgrade à partir du support d'installation, ainsi que les patchs répertoriés dans l'info doc SunSolve 206844. Recherchez l'info doc 206844 (ex 72099) sur le site Web SunSolve.

    Ces patchs et packages garantissent que vous disposez des tous derniers correctifs de bogues et des nouvelles fonctions de la version. Veillez à installer tous les patchs destinés à votre système avant de créer un nouvel environnement d'initialisation.

    Les étapes suivantes décrivent les procédures de l'info doc SunSolve 206844.


    Remarque –

    Pour créer des environnements d'initialisation ZFS à l'aide de Solaris Live Upgrade, la version installée sur votre système ne doit pas être antérieure à la version Solaris 10 10/08, car les versions précédentes ne disposent pas des logiciels Solaris Live Upgrade et ZFS pour procéder à l'exécution de ces tâches.


    1. Connectez-vous en tant que superutilisateur ou prenez un rôle équivalent.

    2. Sur le site web de SunSolve, suivez les instructions contenues dans l'info doc 206844 pour supprimer et ajouter les packages Solaris Live Upgrade.

      Les trois packages Solaris Live Upgrade SUNWluu, SUNWlur et SUNWlucfg contiennent le logiciel nécessaire à la mise à niveau à l'aide de Solaris Live Upgrade. Outre les fonctionnalités existantes, ils intègrent de nouvelles fonctions ainsi que des correctifs de bogues. La mise à niveau de la version cible échoue si vous ne supprimez pas les packages existants et si vous installez les nouveaux packages sur le système préalablement à l'utilisation de Solaris Live Upgrade. Le package SUMWlucfg est un nouvel élément de la version Solaris 10 8/07. Si vous utilisez des packages Solaris Live Upgrade d'une version antérieure à Solaris 10 8/07, vous n'avez pas besoin de supprimer ce package.


      Remarque –

      Le package SUMWlucfg est un nouvel élément de la version Solaris 10 8/07. Si vous utilisez des packages Solaris Live Upgrade d'une version précédente, vous n'avez pas besoin de supprimer ce package.



      # pkgrm SUNWlucfg SUNWluu SUNWlur
      
    3. Installez les nouveaux packages Solaris Live Upgrade. Pour obtenir les instructions correspondantes, reportez-vous à la section Installation de Solaris Live Upgrade.

    4. Avant d'installer ou d'exécuter Solaris Live Upgrade, vous devez installer les patchs suivants. Ces patchs garantissent que vous disposez des tout derniers correctifs de bogues et fonctions de la version.

      Vérifiez que vous disposez de la dernière liste de patchs en visitant le site Web SunSolve. Recherchez l'info doc 206844 (ex 72099) sur le site Web SunSolve.

      • Si vous stockez les patchs sur un disque local, créez un répertoire, tel que /var/tmp/lupatches, puis téléchargez les patchs dans ce répertoire.

      • Vous obtiendrez la liste des patchs sur le site Web SunSolve.

      • Accédez au répertoire des patchs comme dans l'exemple ci-dessous.


        # cd /var/tmp/lupatches
        
      • Installez les patchs en utilisant la commande patchadd.


        # patchadd -M path-to-patches patch_id patch_id
        

        path-to-patches correspond au chemin vers le répertoire des patchs, par exemple /var/tmp/lupatches. id_patch correspond au(x) numéro(s) de patch(s). Séparez les noms de patch par un espace.


        Remarque –

        Vous devez appliquer les patchs dans l'ordre spécifié dans l'info doc 206844.


      • Réinitialisez le système si nécessaire. Certains patchs doivent être réinitialisés pour être effectifs.

        x86 uniquement. La réinitialisation du système est requise ou Solaris Live Upgrade échoue.


        # init 6
        

        Vous disposez maintenant des packages et des patchs nécessaires à une migration réussie.

  2. Créez un pool racine ZFS.

    Pour pouvoir être initialisé et mis à niveau, le pool racine ZFS doit se trouver sur une tranche unique.


    # zpool create rpool2 c0t1d0s5
    
    rpool2

    Nom du nouveau pool racine ZFS.

    c0t1d0s5

    Spécifie l'emplacement de rpool2 sur la tranche initialisable, c0t1d0s5.

    Pour obtenir des informations sur la création d'un pool racine, reportez-vous au Guide d’administration Solaris ZFS.

  3. Créez le nouvel environnement d'initialisation.


    # lucreate [-c zfsBE] -n new-zfsBE -p rpool2
    
    -c zfsBE

    Attribue le nom zfsBE à l'environnement d'initialisation ZFS en cours.

    -n nouveau-zfsBE

    Attribue le nom à l'environnement d'initialisation à créer. Le nom doit être unique sur le système.

    -p rpool2

    Place le dernier environnement d'initialisation racine ZFS créé dans le pool racine ZFS défini dans rpool2.

    La création d'un environnement d'initialisation ZFS peut prendre un certain temps. Les données du système de fichiers sont copiées dans le nouveau pool racine ZFS. Une fois l'environnement d'initialisation inactif créé, vous pouvez utiliser la commande luupgrade ou luactivate pour mettre à niveau ou activer cet environnement.

  4. Si vous le souhaitez, vérifiez que la création de l'environnement d'initialisation est terminée.

    La commande lustatus génère un rapport relatif à l'état de la création et de l'activation de l'environnement d'initialisation.


    # lustatus
    boot environment   Is        Active  Active     Can	    Copy 
    Name               Complete  Now	 OnReboot   Delete	 Status 
    ------------------------------------------------------------------------ 
    zfsBE                       yes      yes     yes        no        - 
    new-zfsBE                   yes      no      no         yes        -
  5. Si vous le souhaitez, vérifiez les informations de base sur les jeux de données du système.

    L'exemple suivant affiche le nom de tous les jeux de données du système. Les points de montage répertoriés pour le nouvel environnement d'initialisation sont créés temporairement jusqu'à l'exécution de la commande luactivate. Les volumes rpool2/dump et rpool2/swap sont partagés entre le nouvel environnement d'initialisation et l'environnement d'initialisation ZFS rpool2.


    # zfs list
    NAME                             USED    AVAIL   REFER   MOUNTPOINT 
    rpool2                           9.29G    57.6G     20K   /rpool2 
    rpool2/ROOT/                     5.38G    57.6G     18K   /rpool2/ROOT 
    rpool2/ROOT/new-zfsBE            5.38G    57.6G    551M  /tmp/.new.luupdall.109859
    rpool2/dump                      3.99G        -   3.99G   - 
    rpool2/swap                      3.99G        -   3.99G   - 
    rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
    rpool/ROOT                       5.46G    57.6G     18K   legacy
    rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
    rpool/dump                       3.99G        -   3.99G   - 
    rpool/swap                       3.99G        -   3.99G   - 

    Vous pouvez à présent mettre à niveau et activer le nouvel environnement d'initialisation. Voir Exemple 13–3.


Exemple 13–3 Création d'un environnement d'initialisation dans un nouveau pool racine

Dans cet exemple, un pool racine ZFS, rpool, est créé sur une tranche distincte, c0t2s0s5. La commande lucreate crée un nouvel environnement d'initialisation ZFS, appelé zfsBE. L'option -p est nécessaire, car l'environnement d'initialisation est créé dans un pool racine différent.


# zpool create rpool C0t1d0s5
# zfs list
NAME                             USED    AVAIL   REFER   MOUNTPOINT 
rpool2                           9.29G    57.6G     20K   /rpool2 
rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
rpool/ROOT					             5.46G    57.6G     18K   legacy
rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
rpool/dump                       3.99G        -   3.99G   - 
rpool/swap                       3.99G        -   3.99G   - 

# lucreate -c rpool -n new-zfsBE -p rpool2
Analyzing system configuration.
Current boot environment is named <rpool>.
Creating initial configuration for primary boot environment <rpool>.
The device </dev/dsk/c0t0d0> is not a root device for any 
boot environment; cannot get BE ID.
PBE configuration successful: PBE name <rpool> PBE Boot 
Device </dev/dsk/rpool>.
Comparing source boot environment <rpool> file systems with 
the file system(s) you specified for the new boot environment. 
Determining which file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t0d0s0> is not a root device for any 
boot environment; cannot get BE ID.
Creating configuration for boot environment <new-zfsBE>.
Source boot environment is <rpool>.
Creating boot environment <new-zfsBE>.
Creating file systems on boot environment <new-zfsBE>.
Creating <zfs> file system for </> in zone <global> on 
<rpool2/ROOT/new-zfsBE>.
Populating file systems on boot environment <new-zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </>.
Making boot environment <new-zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-cBc.mnt
updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive
Population of boot environment <new-zfsBE> successful.
Creation of boot environment <new-zfsBE> successful.

# lustatus
boot environment   Is        Active  Active     Can	    Copy 
Name               Complete  Now	OnReboot   Delete	 Status 
------------------------------------------------------------------------ 
zfsBE                yes      yes     yes        no        - 
new-zfsBE            yes      no      no         yes        -
# zfs list
NAME                             USED    AVAIL   REFER   MOUNTPOINT 
rpool2                           9.29G    57.6G     20K   /rpool2 
rpool2/ROOT/                     5.38G    57.6G     18K   /rpool2/ROOT 
rpool2/ROOT/new-zfsBE            5.38G    57.6G    551M   /tmp/.new.luupdall.109859
rpool2/dump                      3.99G        -   3.99G   - 
rpool2/swap                      3.99G        -   3.99G   - 
rpool                            9.29G    57.6G     20K   /.new.lulib.rs.109262
rpool/ROOT                       5.46G    57.6G     18K   legacy
rpool/ROOT/zfsBE                 5.46G    57.6G    551M  
rpool/dump                       3.99G        -   3.99G   - 
rpool/swap                       3.99G        -   3.99G   - 

Création d'un environnement d'initialisation à partir d'une source autre que le système en cours de fonctionnement

Si vous disposez d'un pool racine ZFS ou d'un environnement d'initialisation UFS non utilisé en tant qu'environnement d'initialisation actif, aidez-vous de l'exemple suivant pour créer un environnement d'initialisation ZFS à partir de cet environnement inactif. Une fois cet environnement créé, vous pouvez le mettre à niveau et l'activer selon vos besoins.

Si vous créez un environnement d'initialisation à partir d'une source autre que le système en cours de fonctionnement, vous devez utiliser la commande lucreate avec l'option -s. Cette option -fonctionne de la même manière qu'un système de fichiers UFS et fournit le chemin d'accès vers le -système de fichiers racine (/) alternatif. Ce système de fichiers racine (/) constitue la source pour la création du pool racine ZFS. Ce système alternatif peut être soit un système de fichiers racine (/) UFS, soit un pool racine ZFS. Selon votre système, la copie peut prendre un certain temps.

L'exemple suivant présente l'utilisation de l'option -s lors de la création d'un environnement d'initialisation sur un autre pool racine ZFS.


Exemple 13–4 Méthode de création d'un environnement d'initialisation à partir d'une source autre que le système en cours de fonctionnement

La commande suivante crée un pool racine ZFS à partir d'un pool racine ZFS existant. L'option -n attribue un nom à l'environnement d'initialisation à créer, new-zfsBE. L'option -s spécifie l'environnement d'initialisation, rpool3, à utiliser en tant que source de la copie à la place de l'environnement d'initialisation actif. L'option -p spécifie l'emplacement du nouvel environnement d'initialisation : rpool2.


# lucreate -n new-zfsBE -s rpool3 -p rpool2
# lustatus
boot environment   Is        Active  Active     Can	    Copy 
Name               Complete  Now	 OnReboot   Delete	 Status 
------------------------------------------------------------------------ 
zfsBE               yes      yes     yes        no         - 
zfsBE2              yes      no      no         yes        -
zfsBE3              yes      no      no         yes        -
new-zfsBE           yes      no      no         yes        -

# zfs list
NAME                            USED    AVAIL   REFER   MOUNTPOINT 
rpool2                         9.29G    57.6G     20K   /rpool2 
rpool2/ROOT/                   5.38G    57.6G     18K   /rpool2/ROOT 
rpool2/ROOT/new-zfsBE          5.38G    57.6G    551M   /tmp/.new.luupdall.109859
rpool2/dump                    3.99G        -   3.99G   - 
rpool2/swap                    3.99G        -   3.99G   - 
rpool3                         9.29G    57.6G     20K   /rpool2 
rpool3/ROOT/                   5.38G    57.6G     18K   /rpool2/ROOT 
rpool3/ROOT/zfsBE3             5.38G    57.6G   551M    /tmp/.new.luupdall.109859
rpool3/dump                    3.99G        -   3.99G   - 
rpool3/swap                    3.99G        -   3.99G   - 
prool                          9.29G    57.6G     20K   /.new.lulib.rs.109262
rpool/ROOT                     5.46G    57.6G     18K   legacy
rpool/ROOT/zfsBE               5.46G    57.6G   551M  
rpool/dump                     3.99G        -   3.99G   - 
rpool/swap                     3.99G        -   3.99G   -

Vous pouvez à présent mettre à niveau et activer le nouvel environnement d'initialisation.


Restauration d'un environnement d'initialisation ZFS

Si un problème est détecté après la mise à niveau ou si l'application est incompatible avec un composant mis à niveau, vous pouvez restaurer l'environnement d'initialisation d'origine à l'aide de la commande luactivate.

Si vous avez procédé à une migration vers un pool racine ZFS à partir d'un environnement d'initialisation UFS et que vous décidez de restaurer cet environnement, vous devez à nouveau importer les pools de stockage ZFS créés dans l'environnement d'initialisation ZFS. En effet, ces pools de stockage ZFS ne sont pas rendus automatiquement disponibles dans l'environnement d'initialisation UFS. Lors de la restauration de l'environnement UFS, des messages, similaires à ceux de l'exemple ci-dessous, apparaîtront.


# luactivate c0t0d0
WARNING: The following files have changed on both the current boot 
environment <new-ZFSbe> zone <global> and the boot environment 
to be activated <c0t0d0>: /etc/zfs/zpool.cache
INFORMATION: The files listed above are in conflict between the current 
boot environment <ZFSbe> zone <global> and the boot environment to be 
activated <c0t0d0>. These files will not be automatically synchronized 
from the current boot environment <new-ZFSbe> when boot 
environment <c0t0d0>

Pour obtenir des exemples de restauration d'un environnement d'initialisation d'origine, reportez-vous au Chapitre 6Reprise sur échec : restauration de l'environnement d'initialisation d'origine (Tâches).

Ressources supplémentaires

Pour de plus amples informations sur les sujets traités dans ce chapitre, reportez-vous aux ressources répertoriées dans le Tableau 13–1.

Tableau 13–1 Ressources supplémentaires

Ressource 

Emplacement 

Pour obtenir des informations concernant le format ZFS, notamment sur la présentation, la planification et les instructions étape par étape 

Guide d’administration Solaris ZFS

Pour l'utilisation de Solaris Live Upgrade sur un système doté de systèmes de fichiers UFS 

Partie I, Mise à niveau avec Solaris Live Upgrade de ce manuel

Chapitre 14 Solaris Live Upgrade pour ZFS comportant des zones non globales

Ce chapitre propose une présentation et des procédures détaillées relatives à la migration d'un système de fichiers racine (/) UFS vers un pool racine ZFS.


Remarque –

La migration à partir d'un système de fichiers racine (/) UFS vers un pool racine ZFS et la création d'environnements racine ZFS à l'aide de Solaris Live Update sont des nouveautés de la version Solaris 10 10/08. Lorsque vous utilisez Solaris Live Upgrade sur un système de fichiers UFS, les paramètres de la ligne de commande et l'opération de Solaris Live Upgrade restent inchangés. Pour utiliser Solaris Live Update avec des systèmes de fichiers UFS, reportez-vous à la Partie I, Mise à niveau avec Solaris Live Upgrade de ce manuel.


Création d'un environnement d'initialisation ZFS sur un système comportant des zones non globales (Présentation et planification)

Vous pouvez utiliser Solaris Live Upgrade pour faire migrer votre système de fichiers racine (/) UFS comportant des zones non globales sur un pool racine ZFS. Toutes les zones non globales associées au système de fichiers sont également copiées vers le nouvel environnement d'initialisation. Les scénarios suivants de migration des zones non globales sont pris en charge :

Combinaison systèmes de fichiers racine et zones en prémigration  

Combinaison systèmes de fichiers racine et zones en postmigration 

Système de fichiers racine UFS avec le répertoire racine des zones non globales sur le système de fichiers UFS 

Système de fichiers racine UFS avec le répertoire racine des zones non globales sur un pool racine ZFS 

 

Pool racine ZFS avec le répertoire racine des zones non globales sur le pool racine ZFS 

 

Pool racine ZFS avec le répertoire racine des zones non globales sur un système de fichiers UFS 

Système de fichiers racine UFS avec la racine des zones non globales sur un pool racine ZFS 

Pool racine ZFS avec la racine des zones non globales sur un pool racine ZFS 

 

Système de fichiers racine UFS avec la racine des zones non globales sur un pool racine ZFS 

Pool racine ZFS avec le répertoire racine des zones non globales sur un pool racine ZFS 

Pool racine ZFS avec le répertoire racine des zones non globales sur le pool racine ZFS 

Sur un système comportant un système de fichiers racine (/) UFS et des zones non globales, ces zones sont migrées si elles se trouvent dans un système de fichiers non partagé faisant partie intégrante de la migration d'UFS vers ZFS. Ou, si vous procédez à la mise à niveau dans le même pool ZFS, la zone est clonée. Si une zone non globale existe dans un système de fichiers UFS partagé, pour faire migrer vers un autre pool racine ZFS, vous devez d'abord mettre à niveau la zone non globale, comme dans les versions précédentes de Solaris.

Migration d'un système de fichiers racine (/) UFS comportant des zones non globales vers un pool racine ZFS (Tâches)

Ce chapitre propose des instructions détaillées relatives à la migration d'un système de fichiers racine (/) UFS vers un pool racine ZFS sur un système comportant des zones non globales. Aucune zone non globale ne se trouve sur un système de fichiers partagé du système de fichiers UFS

ProcedureMéthode de migration d'un système de fichiers UFS vers un pool racine ZFS sur un système comportant des zones non globales

La commande lucreate crée un environnement d'initialisation d'un pool racine ZFS à partir d'un système de fichiers racine (/) UFS. Avant de pouvoir exécuter la commande lucreate, un pool racine ZFS doit être créé avec des tranches plutôt qu'avec des disques complets et ce, afin de pouvoir être initialisé et mis à jour. Cette procédure explique la méthode utilisée pour copier une zone non globale avec le système de fichiers racine (/) UFS sur le nouvel environnement d'initialisation du pool racine ZFS.

Dans l'exemple suivant, la racine de la zone non globale, myzone, se trouve dans le système de fichiers racine (/) UFS, tandis que la racine de la zone zzone se trouve dans un système de fichiers ZFS du pool de stockage ZFS, pool. Solaris Live Upgrade procède à la migration de l'environnement d'initialisation UFS, c2t2d0s0, vers un environnement d'initialisation ZFS, zfs2BE. La zone basée sur UFS, myzone, migre vers un nouveau pool de stockage ZFS, mpool, créé avant l'utilisation de Solaris Live Upgrade. La zone non globale basée ZFS, zzone, est clonée, tout en étant conservée dans le pool ZFS, pool, puis migrée vers le nouvel environnement d'initialisation zfs2BE.

  1. Lors de la première exécution de Solaris Live Upgrade, suivez la procédure suivante.


    Remarque –

    Pour créer des environnements d'initialisation ZFS à l'aide de Solaris Live Upgrade, la version installée sur votre système ne doit pas être antérieure à la version Solaris 10 10/08. car les versions précédentes ne disposent pas des logiciels Solaris Live Upgrade et ZFS pour procéder à l'exécution de ces tâches.


    1. Au besoin, supprimez de votre système les packages Solaris Live Upgrade existants. Si vous procédez à une mise à niveau vers une nouvelle version, vous devez installer les packages correspondant à cette version.

      Les trois packages Solaris Live Upgrade SUNWluu, SUNWlur et SUNWlucfg contiennent le logiciel nécessaire à la mise à niveau à l'aide de Solaris Live Upgrade. Outre les fonctionnalités existantes, ils intègrent de nouvelles fonctions ainsi que des correctifs de bogues. La mise à niveau de la version cible échoue si vous ne supprimez pas les packages existants et si vous installez les nouveaux packages sur le système préalablement à l'utilisation de Solaris Live Upgrade.


      # pkgrm SUNWlucfg SUNWluu SUNWlur
      
    2. Installez les nouveaux packages Solaris Live Upgrade de la version pour laquelle vous effectuez la mise à niveau. Pour obtenir les instructions correspondantes, reportez-vous à la section Installation de Solaris Live Upgrade.

    3. Avant d'installer ou d'exécuter Solaris Live Upgrade, vous devez installer les patchs suivants. Ces patchs garantissent que vous disposez des tout derniers correctifs de bogues et fonctions de la version.

      Vérifiez que vous disposez de la dernière liste de patchs en visitant le site Web SunSolve. Recherchez l'info doc 206844 (ex 72099) sur le site Web SunSolve.

      • Connectez-vous en tant que superutilisateur ou prenez un rôle équivalent.

      • Si vous stockez les patchs sur un disque local, créez un répertoire, tel que /var/tmp/lupatches, puis téléchargez les patchs dans ce répertoire.

      • Vous obtiendrez la liste des patchs sur le site Web SunSolve.

      • Allez dans le répertoire des patchs.


        # cd /var/tmp/lupatches
        
      • Installez les patchs en utilisant la commande patchadd.


        # patchadd patch_id
        

        id_patch correspond au(x) numéro(s) de patch(s). Séparez les noms de patch par un espace.


        Remarque –

        Vous devez appliquer les patchs dans l'ordre spécifié dans l'info doc 206844.


      • Réinitialisez le système si nécessaire. Certains patchs doivent être réinitialisés pour être effectifs.

        x86 uniquement. La réinitialisation du système est requise ou Solaris Live Upgrade échoue.


        # init 6
        
  2. Créez un pool racine ZFS.

    Pour pouvoir être initialisé et mis à niveau, le pool racine ZFS doit se trouver sur une tranche unique.


    # zpool create rpool c3t0d0s0
    

    Dans cet exemple; le ZFS à créer est nommé rpool. Le pool est créé sur une tranche initialisable appelée c3t0d0s0.

    Pour obtenir des informations sur la création d'un pool racine, reportez-vous au Guide d’administration Solaris ZFS.

  3. Procédez à la migration du système de fichiers racine (/) UFS vers le nouveau pool racine ZFS.


    # lucreate [-c ufsBE] -n new-zfsBE -p rpool
    
    -cufsBE

    Attribue le nom ufsBE à l'environnement d'initialisation UFS en cours. Cette option n'est pas obligatoire et n'est utilisée que pour créer un premier environnement d'initialisation. Si vous exécutez la commande lucreate pour la première fois et omettez l'option -c, le logiciel crée pour vous un nom par défaut.

    -n new-zfsBE

    Attribue le nom new-zfsBE à l'environnement d'initialisation à créer. Le nom doit être unique sur le système.

    -p rpool

    Place le dernier système de fichiers racine (/) ZFS créé dans le pool racine ZFS défini dans rpool.

    Toutes les zones non globales non partagées sont copiées sur le nouvel environnement d'initialisation avec les systèmes de fichiers critiques. La création d'un environnement d'initialisation ZFS peut prendre un certain temps. Les données du système de fichiers UFS sont copiées dans le pool racine ZFS. Une fois l'environnement d'initialisation inactif créé, vous pouvez utiliser la commande luupgrade ou luactivate pour mettre à niveau ou activer cet environnement.

  4. Si vous le souhaitez, vérifiez que la création de l'environnement d'initialisation est terminée.

    La commande lustatus génère un rapport relatif à l'état de la création et de l'activation de l'environnement d'initialisation.


    # lustatus
    boot environment   Is         Active   Active     Can	    Copy 
    Name               Complete   Now	  OnReboot   Delete	 Status 
    ------------------------------------------------------------------------ 
    ufsBE               yes       yes      yes        no         - 
    new-zfsBE           yes       no       no        yes         -
  5. Si vous le souhaitez, vérifiez les informations de base sur les jeux de données du système.

    La commande list affiche le nom de tous les jeux de données du système. Dans cet exemple, rpool est le nom du pool ZFS et new-zfsBE est le nom du dernier environnement d'initialisation ZFS créé.


    # zfs list
    NAME                        USED  AVAIL  REFER  MOUNTPOINT 
    rpool                      9.29G  57.6G    20K  /rpool
    rpool/ROOT                 5.38G  57.6G    18K  /rpool/ROOT
    rpool/ROOT/new-zfsBE       5.38G  57.6G   551M  /tmp/.alt.luupdall.110034
    rpool/dump                 1.95G      -  1.95G  - 
    rpool/swap                 1.95G      -  1.95G  - 

    Les points de montage répertoriés pour le nouvel environnement d'initialisation sont créés temporairement jusqu'à l'exécution de la commande luactivate. Les volumes /dump et /swap ne sont pas partagés avec l'environnement d'initialisation UFS d'origine, mais dans le pool racine ZFS et dans les environnements d'initialisation de ce pool.


Exemple 14–1 Migration d'un système de fichiers racine (/) UFS comportant des zones non globales vers un pool racine ZFS

Dans l'exemple suivant, la racine de la zone non globale, myzone, se trouve dans le système de fichiers racine (/) UFS. tandis que la racine de la zone zzone se trouve dans un système de fichiers ZFS du pool de stockage ZFS, pool. Solaris Live Upgrade procède à la migration de l'environnement d'initialisation UFS, c2t2d0s0, vers un environnement d'initialisation ZFS, zfs2BE. La zone basée sur UFS, myzone, migre vers un nouveau pool de stockage ZFS, mpool, créé avant l'utilisation de Solaris Live Upgrade. La zone non globale basée ZFS, zzone, est clonée, tout en étant conservée dans le pool ZFS, pool, puis migrée vers le nouvel environnement d'initialisation zfs2BE.


# zoneadm list -iv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   - myzone           installed  /zones/myzone                  native   shared
   - zzone            installed  /pool/zones                    native   shared

# zpool create mpool mirror c3t0d0s0 c4td0s0
# lucreate -c c1t2d0s0 -n zfs2BE -p mpool
Analyzing system configuration.
No name for current boot environment.
Current boot environment is named <c1t2d0s0>.
Creating initial configuration for primary boot environment <c1t2d0s0>.
The device </dev/dsk/c1t2d0s0> is not a root device for any 
boot environment; cannot get BE ID.
PBE configuration successful: PBE name <c1t2d0s0> PBE Boot Device 
</dev/dsk/c1t2d0s0>.
Comparing source boot environment <c1t2d0s0> file systems with the file 
system(s) you specified for the new boot environment. Determining which 
file systems should be in the new boot environment.
Updating boot environment description database on all BEs.
Updating system configuration files.
The device </dev/dsk/c1t0d0s0> is not a root device for any boot
environment; cannot get BE ID.
Creating configuration for boot environment <zfsBE>.
Source boot environment is <c1t2d0s0>.
Creating boot environment <zfsBE>.
Creating file systems on boot environment <zfsBE>.
Creating <zfs> file system for </> in zone <global> on <rpool/ROOT/zfsBE>.
Populating file systems on boot environment <zfsBE>.
Checking selection integrity.
Integrity check OK.
Populating contents of mount point </>.
Copying.
Creating shared file system mount points.
Creating compare databases for boot environment <zfsBE>.
Creating compare database for file system </>.
Making boot environment <zfsBE> bootable.
Creating boot_archive for /.alt.tmp.b-cBc.mnt
updating /.alt.tmp.b-cBc.mnt/platform/sun4u/boot_archive
Population of boot environment <zfsBE> successful.
Creation of boot environment <zfsBE> successful.

Une fois l'exécution de la commande lucreate terminée, utilisez la commande lustatus pour afficher l'état de l'environnement d'initialisation, comme dans cet exemple.


# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
c1t2d0s0                   yes      yes    yes       no     -         
zfsBE                      yes      no     no        yes    -         

# zoneadm list -iv
  ID NAME             STATUS     PATH                           BRAND    IP    
   0 global           running    /                              native   shared
   - myzone           installed  /zones/myzone                  native   shared
   - zzone            installed  /pool/zones                    native   shared

Ensuite, utilisez la commande luactivate pour activer le nouvel environnement d'initialisation ZFS. Exemple :


# luactivate zfsBE
**********************************************************************

The target boot environment has been activated. It will be used when you 
reboot. NOTE: You MUST NOT USE the reboot, halt, or uadmin commands. You 
MUST USE either the init or the shutdown command when you reboot. If you 
do not use either init or shutdown, the system will not boot using the 
target BE.

**********************************************************************
In case of a failure while booting to the target BE, the following process 
needs to be followed to fallback to the currently working boot environment:

1. Enter the PROM monitor (ok prompt).

2. Change the boot device back to the original boot environment by typing:

     setenv boot-device /pci@1f,0/pci@1/scsi@4,1/disk@2,0:a

3. Boot to the original boot environment by typing:

     boot

**********************************************************************

Modifying boot archive service
Activation of boot environment <ZFSbe> successful.

Réinitialisez le système de l'environnement d'initialisation ZFS.


# init 6
# svc.startd: The system is coming down.  Please wait.
svc.startd: 79 system services are now being stopped.
.
.
.

Vérifiez le nouvel environnement d'initialisation et l'état des zones migrées, comme dans cet exemple.


# lustatus
Boot Environment           Is       Active Active    Can    Copy      
Name                       Complete Now    On Reboot Delete Status    
-------------------------- -------- ------ --------- ------ ----------
c1t2d0s0                   yes      yes    yes       no     -         
zfsBE                      yes      no     no        yes    -         

Si vous procédez à la restauration de l'environnement d'initialisation UFS, vous devrez importer à nouveau tout pool de stockage ZFS créé dans l'environnement d'initialisation ZFS, car ces pools ne sont pas automatiquement disponibles dans l'environnement UFS. Lors de la restauration de l'environnement UFS, des messages s'affichent, similaires à ceux présentés ci-dessous.


# luactivate c1t2d0s0
WARNING: The following files have changed on both the current boot 
environment <ZFSbe> zone <global> and the boot environment to be activated <c1t2d0s0>:
 /etc/zfs/zpool.cache
INFORMATION: The files listed above are in conflict between the current 
boot environment <ZFSbe> zone <global> and the boot environment to be 
activated <c1t2d0s0>. These files will not be automatically synchronized 
from the current boot environment <ZFSbe> when boot environment <c1t2d0s0>

Ressources supplémentaires

Pour de plus amples informations sur les sujets traités dans ce chapitre, reportez-vous aux ressources répertoriées dans le Tableau 14–1.

Tableau 14–1 Ressources supplémentaires

Ressource 

Emplacement 

Pour plus d'informations sur les zones non globales, y compris la présentation, la planification et les instructions détaillées 

Guide d’administration système : Gestion des ressources conteneurs Solaris et des zones Solaris

Pour des informations relatives à ZFS, y compris la présentation, la planification et les instructions détaillées 

Guide d’administration Solaris ZFS

Pour des informations relatives à l'utilisation de Solaris Live Upgrade sur un système doté de systèmes de fichiers UFS 

Partie I, Mise à niveau avec Solaris Live Upgrade de ce manuel, y compris le Chapitre 8 Mise à niveau du système d'exploitation Solaris sur un système comportant des zones non globales