Ignorer les liens de navigation | |
Quitter l'aperu | |
Administration d'Oracle Solaris 11.1 : Systèmes de fichiers ZFS Oracle Solaris 11.1 Information Library (Français) |
1. Système de fichiers Oracle Solaris ZFS (introduction)
2. Mise en route d'Oracle Solaris ZFS
3. Gestion des pools de stockage Oracle Solaris ZFS
4. Gestion des composants du pool root ZFS
Gestion des composants du pool root ZFS (présentation)
Configuration requise pour le pool root ZFS
Espace de pool root ZFS requis
Configuration requise pour le pool root ZFS
Gestion de votre pool root ZFS
Installation d'un pool root ZFS
Mise à jour de l'environnement d'initialisation ZFS
Montage d'un environnement d'initialisation alternatif
Configuration d'un pool root mis en miroir (SPARC ou x86/VTOC)
Configuration d'un pool root mis en miroir (x86/EFI (GPT))
Remplacement d'un disque dans un pool root ZFS (SPARC ou x86/VTOC)
Remplacement d'un disque dans un pool root ZFS (SPARC ou x86/EFI (GPT))
Création d'un environnement d'initialisation dans un pool root différent (SPARC ou x86/VTOC)
Création d'un environnement d'initialisation dans un pool root différent (SPARC ou x86/EFI (GPT))
Gestion de vos périphériques de swap et de vidage ZFS
Ajustement de la taille de vos périphériques de swap et de vidage ZFS
Dépannage du périphérique de vidage ZFS
Initialisation à partir d'un système de fichiers root ZFS
Initialisation à partir d'un disque alternatif d'un pool root ZFS mis en miroir
Initialisation à partir d'un système de fichiers root ZFS sur un système SPARC
Initialisation à partir d'un système de fichiers root ZFS sur un système x86
Initialisation à des fins de récupération dans un environnement root ZFS
Initialisation du système à des fins de récupération
5. Gestion des systèmes de fichiers Oracle Solaris ZFS
6. Utilisation des instantanés et des clones ZFS Oracle Solaris
7. Utilisation des ACL et des attributs pour protéger les fichiers Oracle Solaris ZFS
8. Administration déléguée de ZFS dans Oracle Solaris
9. Rubriques avancées Oracle Solaris ZFS
10. Dépannage d'Oracle Solaris ZFS et récupération de pool
11. Archivage des instantanés et récupération du pool root
12. Pratiques recommandées pour Oracle Solaris ZFS
Les sections suivantes fournissent des informations sur l'installation et la mise à jour d'un pool root ZFS et la configuration d'un pool root en miroir.
La méthode d'installation Live CD d'Oracle Solaris 11 installe un pool root ZFS par défaut sur un disque unique. La méthode d'installation automatisée (AI, Automated Install) d'Oracle Solaris 11 vous permet de créer un manifeste AI pour identifier le disque ou les disques mis en miroir du pool root ZFS.
Le programme d'installation automatisée permet de disposer d'une certaine souplesse en installant un pool root ZFS sur le disque d'initialisation par défaut ou sur un disque cible que vous identifiez. Vous pouvez spécifier le périphérique logique, tel que c1t0d0, ou le chemin du périphérique physique. En outre, vous pouvez utiliser l'identificateur MPxIO ou l'ID du périphérique à installer.
Après l'installation, examinez les informations de votre pool de stockage ZFS et du système de fichiers, qui peuvent varier selon le type d'installation et les personnalisations. Par exemple :
# zpool status rpool pool: rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c8t0d0 ONLINE 0 0 0 c8t1d0 ONLINE 0 0 0 # zfs list NAME USED AVAIL REFER MOUNTPOINT rpool 11.8G 55.1G 4.58M /rpool rpool/ROOT 3.57G 55.1G 31K legacy rpool/ROOT/solaris 3.57G 55.1G 3.40G / rpool/ROOT/solaris/var 165M 55.1G 163M /var rpool/VARSHARE 42.5K 55.1G 42.5K /var/share rpool/dump 6.19G 55.3G 6.00G - rpool/export 63K 55.1G 32K /export rpool/export/home 31K 55.1G 31K /export/home rpool/swap 2.06G 55.2G 2.00G -
Passez en revue les informations sur l'environnement d'initialisation ZFS. Par exemple :
# beadm list BE Active Mountpoint Space Policy Created -- ------ ---------- ----- ------ ------- solaris NR / 3.75G static 2012-07-20 12:10
Dans la sortie ci-dessus, le champ Active indique si l'environnement d'initialisation est actif maintenant (lettre N), actif lors de la réinitialisation (lettre R), ou les deux (lettres NR).
L'environnement d'initialisation ZFS par défaut est nommé solaris par défaut. Vous pouvez identifier votre environnement d'initialisation en utilisant la commande beadm list. Par exemple :
# beadm list BE Active Mountpoint Space Policy Created -- ------ ---------- ----- ------ ------- solaris NR / 3.82G static 2012-07-19 13:44
Dans la sortie ci-dessus, NR signifie que l'environnement d'initialisation est actuellement actif et qu'il sera l'environnement d'initialisation actif après la réinitialisation.
La commande pkg update vous permet de mettre à jour votre environnement d'initialisation ZFS. Si vous mettez à jour votre environnement d'initialisation ZFS à l'aide de la commande pkg update, un nouvel environnement d'initialisation est créé et activé automatiquement, sauf si les mises à jour appliquées à l'environnement d'initialisation existant sont très minimes.
# pkg update DOWNLOAD PKGS FILES XFER (MB) Completed 707/707 10529/10529 194.9/194.9 . . .
Un nouvel environnement d'initialisation, solaris-1, est automatiquement créé et activé.
Vous pouvez également créer et activer un environnement d'initialisation de sauvegarde en dehors du processus de mise à jour.
# beadm create solaris-1 # beadm activate solaris-1
# init 6 . . . # beadm list BE Active Mountpoint Space Policy Created -- ------ ---------- ----- ------ ------- solaris - - 46.95M static 2012-07-20 10:25 solaris-1 NR / 3.82G static 2012-07-19 14:45
# beadm activate solaris # init 6
A des fins de récupération, vous pouvez être amené à copier ou à accéder à un fichier à partir d'un autre environnement d'initialisation.
# beadm mount solaris-1 /mnt
# ls /mnt bin export media pkg rpool tmp boot home mine platform sbin usr dev import mnt proc scde var devices java net project shared doe kernel nfs4 re src etc lib opt root system
# beadm umount solaris-1
Si vous ne configurez pas de pool root mis en miroir au cours d'une installation automatique, vous pouvez facilement configurer un pool root mis en miroir après l'installation.
Pour plus d'informations sur le remplacement d'un disque dans un pool root, reportez-vous à la section Remplacement d'un disque dans un pool root ZFS (SPARC ou x86/VTOC).
# zpool status rpool pool: rpool state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 c2t0d0s0 ONLINE 0 0 0 errors: No known data errors
SPARC : confirmez que le disque dispose d'une étiquette de disque SMI (VTOC) et d'une tranche 0. Si vous devez réétiqueter le disque et créer une tranche 0, reportez-vous à la section Création d’une tranche de disque pour un système de fichiers root ZFS du manuel Administration d’Oracle Solaris 11.1 : Périphériques et systèmes de fichiers.
x86 : confirmez que le disque dispose d'une partition fdisk, d'une étiquette de disque SMI et d'une tranche 0. Si vous devez repartitionner le disque et créer une tranche 0, reportez-vous à la section Préparation d’un disque pour un système de fichiers root ZFS du manuel Administration d’Oracle Solaris 11.1 : Périphériques et systèmes de fichiers.
# zpool attach rpool c2t0d0s0 c2t1d0s0 Make sure to wait until resilver is done before rebooting.
Le bon étiquetage et les blocs d'initialisation sont appliqués par défaut.
# zpool status rpool # zpool status rpool pool: rpool state: DEGRADED status: One or more devices is currently being resilvered. The pool will continue to function in a degraded state. action: Wait for the resilver to complete. Run 'zpool status -v' to see device specific details. scan: resilver in progress since Fri Jul 20 13:39:53 2012 938M scanned out of 11.7G at 46.9M/s, 0h3m to go 938M resilvered, 7.86% done config: NAME STATE READ WRITE CKSUM rpool DEGRADED 0 0 0 mirror-0 DEGRADED 0 0 0 c2t0d0s0 ONLINE 0 0 0 c2t1d0s0 DEGRADED 0 0 0 (resilvering)
Dans la sortie ci-dessus, le processus de réargenture n'est pas terminé. La réargenture est terminée lorsque des messages similaires aux suivants s'affichent :
resilvered 11.6G in 0h5m with 0 errors on Fri Jul 20 13:57:25 2012
Déterminez la taille du pool rpool existant :
# zpool list rpool NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT rpool 29.8G 152K 29.7G 0% 1.00x ONLINE -
# zpool set autoexpand=on rpool
Vérifiez la taille du pool rpool étendu :
# zpool list rpool NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT rpool 279G 146K 279G 0% 1.00x ONLINE -
Oracle Solaris 11.1 installe une étiquette EFI (GPT) par défaut sur un système x86 dans la plupart des cas.
Si vous ne configurez pas de pool root mis en miroir au cours d'une installation automatique, vous pouvez facilement configurer un pool root mis en miroir après l'installation.
Pour plus d'informations sur le remplacement d'un disque dans un pool root, reportez-vous à la section Remplacement d'un disque dans un pool root ZFS (SPARC ou x86/VTOC).
# zpool status rpool pool: rpool state: ONLINE scan: none requested config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 c2t0d0 ONLINE 0 0 0 errors: No known data errors
# zpool attach rpool c2t0d0 c2t1d0 Make sure to wait until resilver is done before rebooting.
Le bon étiquetage et les blocs d'initialisation sont appliqués par défaut.
Si vous avez personnalisé des partitions sur votre disque de pool root, vous pouvez avoir besoin d'une syntaxe similaire à la suivante :
# zpool attach rpool c2t0d0s0 c2t1d0
# zpool status rpool pool: rpool state: DEGRADED status: One or more devices is currently being resilvered. The pool will continue to function in a degraded state. action: Wait for the resilver to complete. Run 'zpool status -v' to see device specific details. scan: resilver in progress since Fri Jul 20 13:52:05 2012 809M scanned out of 11.6G at 44.9M/s, 0h4m to go 776M resilvered, 6.82% done config: NAME STATE READ WRITE CKSUM rpool DEGRADED 0 0 0 mirror-0 DEGRADED 0 0 0 c8t0d0 ONLINE 0 0 0 c8t1d0 DEGRADED 0 0 0 (resilvering) errors: No known data errors
Dans la sortie ci-dessus, le processus de réargenture n'est pas terminé. La réargenture est terminée lorsque des messages similaires aux suivants s'affichent :
resilvered 11.6G in 0h5m with 0 errors on Fri Jul 20 13:57:25 2012
Déterminez la taille du pool rpool existant :
# zpool list rpool NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT rpool 29.8G 152K 29.7G 0% 1.00x ONLINE -
# zpool set autoexpand=on rpool
Vérifiez la taille du pool rpool étendu :
# zpool list rpool NAME SIZE ALLOC FREE CAP DEDUP HEALTH ALTROOT rpool 279G 146K 279G 0% 1.00x ONLINE -
Vous pouvez être amené à remplacer un disque dans le pool root pour les raisons suivantes :
Le pool root est trop petit et vous souhaitez le remplacer par un disque plus grand.
Le disque du pool root est défectueux. Dans un pool non redondant, si le disque est défectueux et empêche l'initialisation du système, vous devez initialiser votre système à partir d'un autre média, par exemple un CD ou le réseau, avant de remplacer le disque du pool root.
Si vous exécutez la commande zpool replace pour remplacer un disque dans un disque de pool root, vous devrez appliquer les blocs d'initialisation manuellement.
Dans une configuration de pool root en miroir, vous pouvez peut-être tenter un remplacement de disque sans avoir à initialiser à partir d'un autre média. Vous pouvez remplacer un disque défaillant en utilisant la commande zpool replace ou, si vous avez un disque supplémentaire, la commande zpool attach. Pour savoir comment connecter un autre disque et déconnecter un disque de pool root, reportez-vous aux étapes ci-dessous.
Sur les systèmes équipés de disques SATA, vous devez déconnecter le disque et en supprimer la configuration avant de tenter d'utiliser la commande zpool replace pour remplacer un disque défectueux. Par exemple :
# zpool offline rpool c1t0d0s0 # cfgadm -c unconfigure c1::dsk/c1t0d0 <Physically remove failed disk c1t0d0> <Physically insert replacement disk c1t0d0> # cfgadm -c configure c1::dsk/c1t0d0 <Confirm that the new disk has an SMI label and a slice 0> # zpool online rpool c1t0d0s0 # zpool replace rpool c1t0d0s0 # zpool status rpool <Let disk resilver before installing the boot blocks> # bootadm install-bootloader
Avec certains composants matériels, il n'est pas nécessaire de connecter le disque, ni de reconfigurer son remplacement après son insertion.
SPARC : confirmez que le (nouveau) disque de remplacement dispose d'une étiquette SMI (VTOC) et d'une tranche 0. Pour plus d'informations sur le réétiquetage d'un disque destiné au pool root, reportez-vous à la section Etiquetage d’un disque du manuel Administration d’Oracle Solaris 11.1 : Périphériques et systèmes de fichiers.
x86 : confirmez que le disque dispose d'une partition fdisk, d'une étiquette de disque SMI et d'une tranche 0. Si vous devez repartitionner le disque et créer une tranche 0, reportez-vous à la section Configuration d’un disque pour un système de fichiers root ZFS du manuel Administration d’Oracle Solaris 11.1 : Périphériques et systèmes de fichiers.
Par exemple :
# zpool attach rpool c2t0d0s0 c2t1d0s0 Make sure to wait until resilver is done before rebooting.
Le bon étiquetage et les blocs d'initialisation sont appliqués par défaut.
Par exemple :
# zpool status rpool pool: rpool state: ONLINE scan: resilvered 11.7G in 0h5m with 0 errors on Fri Jul 20 13:45:37 2012 config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c2t0d0s0 ONLINE 0 0 0 c2t1d0s0 ONLINE 0 0 0 errors: No known data errors
Par exemple, sur un système SPARC :
ok boot /pci@1f,700000/scsi@2/disk@1,0
Identifiez les chemins d'accès du périphérique d'initialisation du nouveau disque et du disque actuel afin de tester l'initialisation à partir du disque de remplacement et afin de pouvoir initialiser manuellement le système à partir du disque existant, en cas de dysfonctionnement du disque de remplacement. Dans l'exemple suivant, le disque du pool root actuel (c2t0d0s0) est :
/pci@1f,700000/scsi@2/disk@0,0
Dans l'exemple suivant, le disque d'initialisation de remplacement est (c2t1d0s0) :
boot /pci@1f,700000/scsi@2/disk@1,0
Par exemple :
# zpool detach rpool c2t0d0s0
# zpool set autoexpand=on rpool
Ou étendez le périphérique :
# zpool online -e c2t1d0s0
SPARC : configurez le système de manière à ce qu'il s'initialise automatiquement à partir du nouveau disque, soit en utilisant la commande eeprom, soit en utilisant la commande setenv de la PROM d'initialisation.
x86 : reconfigurez le BIOS du système.
Oracle Solaris 11.1 installe une étiquette EFI (GPT) par défaut sur un système x86 dans la plupart des cas.
Vous pouvez être amené à remplacer un disque dans le pool root pour les raisons suivantes :
Le pool root est trop petit et vous souhaitez le remplacer par un disque plus grand.
Le disque du pool root est défectueux. Dans un pool non redondant, si le disque est défectueux et empêche l'initialisation du système, vous devez initialiser votre système à partir d'un autre média, par exemple un CD ou le réseau, avant de remplacer le disque du pool root.
Si vous exécutez la commande zpool replace pour remplacer un disque dans un disque de pool root, vous devrez appliquer les blocs d'initialisation manuellement.
Dans une configuration de pool root en miroir, vous pouvez peut-être tenter un remplacement de disque sans avoir à initialiser à partir d'un autre média. Vous pouvez remplacer un disque défaillant en utilisant la commande zpool replace ou, si vous avez un disque supplémentaire, la commande zpool attach. Pour savoir comment connecter un autre disque et déconnecter un disque de pool root, reportez-vous aux étapes ci-dessous.
Sur les systèmes équipés de disques SATA, vous devez déconnecter le disque et en supprimer la configuration avant de tenter d'utiliser la commande zpool replace pour remplacer un disque défectueux. Par exemple :
# zpool offline rpool c1t0d0 # cfgadm -c unconfigure c1::dsk/c1t0d0 <Physically remove failed disk c1t0d0> <Physically insert replacement disk c1t0d0> # cfgadm -c configure c1::dsk/c1t0d0 # zpool online rpool c1t0d0 # zpool replace rpool c1t0d0 # zpool status rpool <Let disk resilver before installing the boot blocks> x86# bootadm install-bootloader
Avec certains composants matériels, il n'est pas nécessaire de connecter le disque, ni de reconfigurer son remplacement après son insertion.
Par exemple :
# zpool attach rpool c2t0d0 c2t1d0 Make sure to wait until resilver is done before rebooting.
Le bon étiquetage et les blocs d'initialisation sont appliqués par défaut.
Par exemple :
# zpool status rpool pool: rpool state: ONLINE scan: resilvered 11.6G in 0h5m with 0 errors on Fri Jul 20 12:06:07 2012 config: NAME STATE READ WRITE CKSUM rpool ONLINE 0 0 0 mirror-0 ONLINE 0 0 0 c2t0d0 ONLINE 0 0 0 c2t1d0 ONLINE 0 0 0 errors: No known data errors
Par exemple :
# zpool detach rpool c2t0d0
# zpool set autoexpand=on rpool
Ou étendez le périphérique :
# zpool online -e c2t1d0
Reconfigurez le BIOS du système.
Si vous souhaitez recréer votre environnement d'initialisation existant dans un autre pool root, effectuez les étapes décrites dans cette procédure. Vous pouvez modifier les étapes en fonction de ce que vous souhaitez obtenir :deux pools root dotés d'environnements d'initialisation similaires ayant des périphériques de swap et de vidage indépendants ou un environnement d'initialisation dans un autre pool root qui partage les périphériques de swap et de vidage.
Une fois que vous avez activé et initialisé à partir du nouvel environnement d'initialisation dans le second pool root, celui-ci ne disposera d'aucune information sur l'environnement d'initialisation précédent du premier pool root. Si vous souhaitez revenir à l'environnement d'initialisation d'origine, réinitialisez le système manuellement à partir du disque d'initialisation du pool root d'origine.
# zpool create rpool2 c4t2d0s0
# beadm create -p rpool2 solaris2
# zpool set bootfs=rpool2/ROOT/solaris2 rpool2
# beadm activate solaris2
ok boot disk2
Votre système doit s'exécuter sous le nouvel environnement d'initialisation.
# zfs create -V 4g rpool2/swap
/dev/zvol/dsk/rpool2/swap - - swap - no -
# zfs create -V 4g rpool2/dump
# dumpadm -d /dev/zvol/dsk/rpool2/dump
SPARC : configurez le système de manière à ce qu'il s'initialise automatiquement à partir du nouveau disque, soit en utilisant la commande eeprom, soit en utilisant la commande setenv de la PROM d'initialisation.
x86 : reconfigurez le BIOS du système.
# init 6
Oracle Solaris 11.1 installe une étiquette EFI (GPT) par défaut sur un système x86 dans la plupart des cas.
Si vous souhaitez recréer votre environnement d'initialisation existant dans un autre pool root, effectuez les étapes décrites dans cette procédure. Vous pouvez modifier les étapes en fonction de ce que vous souhaitez obtenir :deux pools root dotés d'environnements d'initialisation similaires ayant des périphériques de swap et de vidage indépendants ou un environnement d'initialisation dans un autre pool root qui partage les périphériques de swap et de vidage.
Une fois que vous avez activé et initialisé à partir du nouvel environnement d'initialisation dans le second pool root, celui-ci ne disposera d'aucune information sur l'environnement d'initialisation précédent du premier pool root. Si vous souhaitez revenir à l'environnement d'initialisation d'origine, réinitialisez le système manuellement à partir du disque d'initialisation du pool root d'origine.
# zpool create -B rpool2 c2t2d0
Sinon, créez un pool root de remplacement mis en miroir. Par exemple :
# zpool create -B rpool2 mirror c2t2d0 c2t3d0
# beadm create -p rpool2 solaris2
# bootadm install-bootloader -P rpool2
# zpool set bootfs=rpool2/ROOT/solaris2 rpool2
# beadm activate solaris2
SPARC : configurez le système de manière à ce qu'il s'initialise automatiquement à partir du nouveau disque, soit en utilisant la commande eeprom, soit en utilisant la commande setenv de la PROM d'initialisation.
x86 : reconfigurez le BIOS du système.
Votre système doit s'exécuter sous le nouvel environnement d'initialisation.
# zfs create -V 4g rpool2/swap
/dev/zvol/dsk/rpool2/swap - - swap - no -
# zfs create -V 4g rpool2/dump
# dumpadm -d /dev/zvol/dsk/rpool2/dump
# init 6