Ignorer les liens de navigation | |
Quitter l'aperu | |
Guide d'administration Oracle Solaris ZFS Oracle Solaris 10 1/13 Information Library (Français) |
1. Système de fichiers Oracle Solaris ZFS (introduction)
2. Mise en route d'Oracle Solaris ZFS
3. Gestion des pools de stockage Oracle Solaris ZFS
4. Installation et initialisation d'un système de fichiers root ZFS Oracle Solaris
Installation et initialisation d'un système de fichiers root Oracle Solaris ZFS (présentation)
Fonctions d'installation de ZFS
Version Oracle Solaris requise
Configuration requise générale relative au pool root ZFS
Espace disque requis pour les pools root ZFS
Configuration requise pour le pool root ZFS
Installation d'un système de fichiers root ZFS (installation initiale d'Oracle Solaris)
Création d'un pool root ZFS mis en miroir (post-installation)
Installation d'un système de fichiers root ZFS (installation d'archive Flash Oracle Solaris)
Installation d'un système de fichiers root ZFS (installation JumpStart)
Exemples de profils JumpStart pour ZFS
Problèmes de migration ZFS avec Live Upgrade
Utilisation de Live Upgrade pour migrer ou mettre à niveau un système avec zones (Solaris 10 10/08)
Configuration d'un système de fichiers root ZFS avec roots de zone sur ZFS (Solaris 10 10/08)
Gestion de vos périphériques de swap et de vidage ZFS
Ajustement de la taille de vos périphériques de swap et de vidage ZFS
Personnalisation des volumes de swap et de vidage ZFS
Dépannage du périphérique de vidage ZFS
Initialisation à partir d'un système de fichiers root ZFS
Initialisation à partir d'un disque alternatif d'un pool root ZFS mis en miroir
SPARC : initialisation à partir d'un système de fichiers root ZFS
x86 : initialisation à partir d'un système de fichiers root ZFS
Résolution de problèmes de point de montage empêchant l'initialisation (Solaris 10 10/08)
Résolution des problèmes de point de montage ZFS
Initialisation à des fins de récupération dans un environnement root ZFS
Initialisation d'un système de fichiers ZFS en mode de secours
Initialisation d'un système de fichiers ZFS à partir d'un autre média
Restauration du pool root ZFS ou des instantanés du pool root
Remplacement d'un disque dans le pool root ZFS
Création d'instantanés de pool root
Recréation d'un pool root ZFS et restauration d'instantanés de pool root
Restauration des instantanés d'un pool root à partir d'une initialisation de secours
5. Gestion des systèmes de fichiers Oracle Solaris ZFS
6. Utilisation des instantanés et des clones ZFS Oracle Solaris
7. Utilisation des ACL et des attributs pour protéger les fichiers Oracle Solaris ZFS
8. Administration déléguée de ZFS dans Oracle Solaris
9. Rubriques avancées Oracle Solaris ZFS
10. Dépannage d'Oracle Solaris ZFS et récupération de pool
11. Pratiques recommandées pour Oracle Solaris ZFS
Dans cette version d'Oracle Solaris, vous pouvez effectuer une installation initiale à l'aide des méthodes suivantes :
Utilisez le programme d'installation interactif en mode Texte pour effectuer l'installation initiale d'un pool de stockage ZFS contenant un système de fichiers root ZFS amorçable. Si vous disposez d'un pool de stockage ZFS que vous souhaitez utiliser pour votre système de fichiers root ZFS, utilisez Live Upgrade pour migrer votre système de fichiers root UFS existant vers un système de fichiers root ZFS dans un pool de stockage ZFS existant. Pour plus d'informations, reportez-vous à la section Migration d'un système de fichiers root ZFS ou mise à jour d'un système de fichiers root ZFS (Live Upgrade).
Utilisez le programme d'installation interactif en mode Texte pour effectuer l'installation initiale d'un pool de stockage ZFS contenant un système de fichiers root ZFS amorçable à partir d'une archive Flash ZFS.
Avant de lancer l'installation initiale pour créer un pool de stockage ZFS, reportez-vous à la section Configuration requise pour l'installation d'Oracle Solaris et de Live Upgrade pour la prise en charge de ZFS.
Si vous décidez de configurer des zones après l'installation initiale d'un système de fichiers root ZFS et si vous prévoyez l'application d'un patch au système ou sa mise à niveau, reportez-vous aux sections Utilisation de Live Upgrade pour migrer ou mettre à niveau un système avec zones (Solaris 10 10/08) ou Utilisation d'Oracle Solaris Live Upgrade pour migrer ou mettre à jour un système avec zones (version Solaris 10 5/09 ou supérieure).
Si votre système contient déjà certains pools de stockage ZFS, le message ci-dessous permet de les reconnaître. Cependant, ces pools restent intacts, à moins que vous ne sélectionniez les disques du pool existant pour créer le pool de stockage.
There are existing ZFS pools available on this system. However, they can only be upgraded using the Live Upgrade tools. The following screens will only allow you to install a ZFS root system, not upgrade one.
Attention - Tous les pools existants dont l'un des disques aura été sélectionné pour le nouveau pool seront détruits. |
Exemple 4-1 Installation initiale d'un système de fichiers root ZFS amorçable
Le processus d'installation interactif en mode Texte est le même que dans les versions précédentes d'Oracle Solaris, exception faite d'un message vous invitant à créer un système de fichiers root UFS ou ZFS. UFS demeure dans cette version le système de fichiers par défaut. Si vous sélectionnez un système de fichiers root ZFS, un message vous invite à créer un pool de stockage ZFS. Les étapes à suivre pour installer un système de fichiers root ZFS sont les suivantes :
Insérez le média d'installation Oracle Solaris ou initialisez le système à partir d'un serveur d'installation. Sélectionnez ensuite la méthode d'installation interactive en mode Texte pour créer un système de fichiers root ZFS amorçable.
SPARC : respectez la syntaxe suivante à partir du DVD d'installation d'Oracle Solaris :
ok boot cdrom - text
SPARC : respectez la syntaxe suivante lors d'une initialisation à partir du réseau :
ok boot net - text
x86 : sélectionnez la méthode d'installation en mode Texte.
Vous pouvez également créer une archive Flash ZFS à installer à l'aide de l'une des méthodes suivantes :
Installation JumpStart. Pour plus d'informations, reportez-vous à l'Exemple 4-2.
Installation initiale. Pour plus d'informations, reportez-vous à l'Exemple 4-3.
Vous pouvez effectuer une mise à niveau standard pour mettre à niveau un système de fichiers ZFS amorçable existant, mais vous ne pouvez pas utiliser cette option pour créer un nouveau système de fichiers ZFS amorçable. A partir de la version Solaris 10 10/08, vous pouvez migrer un système de fichiers root UFS vers un système de fichiers root ZFS, à condition que la version Solaris 10 10/08 ou une version ultérieure soit déjà installée. Pour plus d'informations sur la migration vers un système de fichiers root ZFS, reportez-vous à la section Migration d'un système de fichiers root ZFS ou mise à jour d'un système de fichiers root ZFS (Live Upgrade).
Pour créer un système de fichiers root ZFS, sélectionnez l'option ZFS. Par exemple :
Choose Filesystem Type Select the filesystem to use for your Solaris installation [ ] UFS [X] ZFS
Une fois que le logiciel à installer est sélectionné, un message vous invite à sélectionner les disques pour créer le pool de stockage ZFS. Cet écran est similaire à celui des versions précédentes.
Select Disks On this screen you must select the disks for installing Solaris software. Start by looking at the Suggested Minimum field; this value is the approximate space needed to install the software you've selected. For ZFS, multiple disks will be configured as mirrors, so the disk you choose, or the slice within the disk must exceed the Suggested Minimum value. NOTE: ** denotes current boot disk Disk Device Available Space ============================================================================= [X] ** c1t0d0 139989 MB (F4 to edit ) [ ] c1t1d0 139989 MB [ ] c1t2d0 139989 MB [ ] c1t3d0 139989 MB [ ] c2t0d0 139989 MB [ ] c2t1d0 139989 MB [ ] c2t2d0 139989 MB [ ] c2t3d0 139989 MB Maximum Root Size: 139989 MB Suggested Minimum: 11102 MB
Vous pouvez sélectionner le ou les disques à utiliser pour le pool root ZFS. Si vous sélectionnez deux disques, une configuration de double disque mis en miroir est définie pour le pool root. Un pool mis en miroir comportant 2 ou 3 disques est optimal. Si vous disposez de 8 disques et que vous les sélectionnez tous, ces 8 disques seront utilisés pour le pool root comme un seul grand miroir. Cette configuration n'est pas optimale. Une autre possibilité consiste à créer un pool root mis en miroir une fois l'installation initiale terminée. La configuration de pool RAID-Z n'est pas prise en charge pour le pool root.
Pour plus d'informations sur la configuration des pools de stockage ZFS, reportez-vous à la section Fonctions de réplication d'un pool de stockage ZFS.
Pour sélectionner 2 disques afin de créer un pool root mis en miroir, utilisez les touches fléchées pour sélectionner le deuxième disque.
Dans l'exemple suivant, les deux disques c1t0d0 et c1t1d0 sont sélectionnés en tant que disques de pool root. Les deux disques doivent posséder une étiquette SMI et une tranche 0. Si les disques ne sont pas identifiés par une étiquette SMI ou ne contiennent aucune tranche, vous devez quitter le programme d'installation, utiliser l'utilitaire de formatage pour réétiqueter et repartitionner les disques, puis relancer le programme d'installation.
Select Disks On this screen you must select the disks for installing Solaris software. Start by looking at the Suggested Minimum field; this value is the approximate space needed to install the software you've selected. For ZFS, multiple disks will be configured as mirrors, so the disk you choose, or the slice within the disk must exceed the Suggested Minimum value. NOTE: ** denotes current boot disk Disk Device Available Space ============================================================================= [X] ** c1t0d0 139989 MB (F4 to edit ) [X] c1t1d0 139989 MB [ ] c1t2d0 139989 MB [ ] c1t3d0 139989 MB [ ] c2t0d0 139989 MB [ ] c2t1d0 139989 MB [ ] c2t2d0 139989 MB [ ] c2t3d0 139989 MB Maximum Root Size: 139989 MB Suggested Minimum: 11102 MB
Si la colonne Espace disponible renvoie la valeur 0 Mo, le disque dispose probablement d'une étiquette EFI. Si vous voulez utiliser un disque avec une étiquette EFI, vous devrez quitter le programme d'installation, réétiqueter le disque avec une étiquette SMI à l'aide de la commande format -e, puis relancer le programme d'installation.
Si vous ne créez pas de pool root mis en miroir lors de l'installation, vous pouvez facilement en créer un après l'installation. Pour plus d'informations, reportez-vous à la section Création d'un pool root ZFS mis en miroir (post-installation).
Une fois que vous avez sélectionné un ou plusieurs disques pour le pool de stockage ZFS, un écran semblable au suivant s'affiche :
Configure ZFS Settings Specify the name of the pool to be created from the disk(s) you have chosen. Also specify the name of the dataset to be created within the pool that is to be used as the root directory for the filesystem. ZFS Pool Name: rpool ZFS Root Dataset Name: s10nameBE ZFS Pool Size (in MB): 139990 Size of Swap Area (in MB): 4096 Size of Dump Area (in MB): 1024 (Pool size must be between 7006 MB and 139990 MB) [X] Keep / and /var combined [ ] Put /var on a separate dataset
Vous pouvez éventuellement, à partir de cet écran, modifier le nom du pool ZFS, le nom du jeu de données, la taille du pool, ainsi que la taille du périphérique de swap et du périphérique de vidage en déplaçant les touches de contrôle du curseur sur les entrées et en remplaçant les valeurs par défaut par de nouvelles valeurs. Vous pouvez aussi accepter les valeurs par défaut. Vous pouvez également modifier la méthode de création et de montage du système de fichiers /var.
Dans cet exemple, le nom de jeu de données root est remplacé par zfsBE.
ZFS Pool Name: rpool ZFS Root Dataset Name: zfsBE ZFS Pool Size (in MB): 139990 Size of Swap Area (in MB): 4096 Size of Dump Area (in MB): 1024 (Pool size must be between 7006 MB and 139990 MB)
Dans cet écran d'installation final, vous pouvez éventuellement modifier le profil d'installation. Par exemple :
Profile The information shown below is your profile for installing Solaris software. It reflects the choices you've made on previous screens. ============================================================================ Installation Option: Initial Boot Device: c1t0d0 Root File System Type: ZFS Client Services: None Regions: North America System Locale: C ( C ) Software: Solaris 10, Entire Distribution Pool Name: rpool Boot Environment Name: zfsBE Pool Size: 139990 MB Devices in Pool: c1t0d0 c1t1d0
Une fois l'installation terminée, vérifiez les informations du pool de stockage et du système de fichiers ZFS. Par exemple :
# zpool status pool: rpool state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c1t0d0s0 ONLINE 0 0 0 c1t1d0s0 ONLINE 0 0 0 errors: No known data errors # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 10.1G 124G 106K /rpool rpool/ROOT 5.01G 124G 31K legacy rpool/ROOT/zfsBE 5.01G 124G 5.01G / rpool/dump 1.00G 124G 1.00G - rpool/export 63K 124G 32K /export rpool/export/home 31K 124G 31K /export/home rpool/swap 4.13G 124G 4.00G -
L'exemple de sortie de la commande zfs list identifie les composants du pool root, notamment le répertoire rpool/ROOT, qui n'est pas accessible par défaut.
Pour créer un autre environnement d'initialisation (BE) ZFS dans le même pool de stockage, utilisez la commande lucreate.
Dans l'exemple suivant, un nouvel environnement d'initialisation nommé zfs2BE est créé. L'environnement d'initialisation actuel s'appelle zfsBE, comme l'indique la sortie zfs list. Toutefois, tant que le nouvel environnement d'initialisation n'est pas créé, l'environnement d'initialisation actuel n'est pas reconnu par la sortie lustatus.
# lustatus ERROR: No boot environments are configured on this system ERROR: cannot determine list of all boot environment names
Pour créer un environnement d'initialisation ZFS dans le même pool, utilisez une syntaxe du type suivant :
# lucreate -n zfs2BE INFORMATION: The current boot environment is not named - assigning name <zfsBE>. Current boot environment is named <zfsBE>. Creating initial configuration for primary boot environment <zfsBE>. The device </dev/dsk/c1t0d0s0> is not a root device for any boot environment; cannot get BE ID. PBE configuration successful: PBE name <zfsBE> PBE Boot Device </dev/dsk/c1t0d0s0>. Comparing source boot environment <zfsBE> file systems with the file system(s) you specified for the new boot environment. Determining which file systems should be in the new boot environment. Updating boot environment description database on all BEs. Updating system configuration files. Creating configuration for boot environment <zfs2BE>. Source boot environment is <zfsBE>. Creating boot environment <zfs2BE>. Cloning file systems from boot environment <zfsBE> to create boot environment <zfs2BE>. Creating snapshot for <rpool/ROOT/zfsBE> on <rpool/ROOT/zfsBE@zfs2BE>. Creating clone for <rpool/ROOT/zfsBE@zfs2BE> on <rpool/ROOT/zfs2BE>. Setting canmount=noauto for </> in zone <global> on <rpool/ROOT/zfs2BE>. Population of boot environment <zfs2BE> successful. Creation of boot environment <zfs2BE> successful.
La création d'un environnement d'exécution ZFS au sein du même pool utilise les fonctions de clonage et d'instantané ZFS pour créer instantanément l'environnement d'exécution. Pour plus d'informations sur l'utilisation de Live Upgrade pour une migration root ZFS, reportez-vous à la section Migration d'un système de fichiers root ZFS ou mise à jour d'un système de fichiers root ZFS (Live Upgrade).
Vérifiez ensuite les nouveaux environnements d'initialisation. Par exemple :
# lustatus Boot Environment Is Active Active Can Copy Name Complete Now On Reboot Delete Status -------------------------- -------- ------ --------- ------ ---------- zfsBE yes yes yes no - zfs2BE yes no no yes - # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 10.1G 124G 106K /rpool rpool/ROOT 5.00G 124G 31K legacy rpool/ROOT/zfs2BE 218K 124G 5.00G / rpool/ROOT/zfsBE 5.00G 124G 5.00G / rpool/ROOT/zfsBE@zfs2BE 104K - 5.00G - rpool/dump 1.00G 124G 1.00G - rpool/export 63K 124G 32K /export rpool/export/home 31K 124G 31K /export/home rpool/swap 4.13G 124G 4.00G -
Pour initialiser un système à partir d'un autre environnement d'initialisation, utilisez la commande luactivate.
SPARC : utilisez la commande boot -L pour identifier les environnements d'initialisation disponibles lorsque le périphérique d'initialisation contient un pool de stockage ZFS.
Par exemple, sur un système SPARC, utilisez la commande boot -L pour afficher une liste d'environnements d'initialisation disponibles. Pour initialiser le système à partir du nouvel environnement d'initialisation zfs2BE, sélectionnez l'option 2. Saisissez ensuite la commande boot -Z affichée.
ok boot -L Executing last command: boot -L Boot device: /pci@7c0/pci@0/pci@1/pci@0,2/LSILogic,sas@2/disk@0 File and args: -L 1 zfsBE 2 zfs2BE Select environment to boot: [ 1 - 2 ]: 2 To boot the selected entry, invoke: boot [<root-device>] -Z rpool/ROOT/zfs2BE ok boot -Z rpool/ROOT/zfs2BE
x86 : identifiez l'environnement d'initialisation à initialiser à partir du menu GRUB.
Pour plus d'informations sur l'initialisation d'un système de fichiers ZFS, reportez-vous à la section Initialisation à partir d'un système de fichiers root ZFS.
Si vous n'avez pas créé de pool root ZFS mis en miroir lors de l'installation, vous pouvez facilement en créer un après l'installation.
Pour obtenir des informations sur le remplacement d'un disque dans un pool root, reportez-vous à la section Remplacement d'un disque dans le pool root ZFS.
# zpool status rpool pool: rpool state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 c1t0d0s0 ONLINE 0 0 0 errors: No known data errors
# zpool attach rpool c1t0d0s0 c1t1d0s0 Make sure to wait until resilver is done before rebooting.
# zpool status rpool pool: rpool state: ONLINE status: One or more devices is currently being resilvered. The pool will continue to function, possibly in a degraded state. action: Wait for the resilver to complete. scrub: resilver in progress for 0h1m, 24.26% done, 0h3m to go config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c1t0d0s0 ONLINE 0 0 0 c1t1d0s0 ONLINE 0 0 0 3.18G resilvered errors: No known data errors
Dans la sortie qui précède, le processus de réargenture n'est pas terminé. La réargenture est terminée lorsque des messages similaires aux suivants s'affichent :
resilvered 10.0G in 0h10m with 0 errors on Thu Nov 15 12:48:33 2012
SPARC : utilisez la commande eeprom ou setenv à partir de la PROM d'initialisation SPARC pour réinitialiser le périphérique d'initialisation par défaut.
x86 : reconfigurez le BIOS du système.