Les améliorations et fonctionnalités d'administration système suivantes ont été ajoutées à la version Solaris 10 10/08.
Les nouvelles fonctionnalités du système de fichiers ZFS sont décrites dans la section suivante. Pour plus d'informations sur ces nouvelles fonctionnalités, reportez-vous au Guide d’administration Solaris ZFS.
Prise en charge de l'installation et de l'initialisation de ZFS : à partir de la version Solaris 10 10/08, vous avez la possibilité d'installer et d'initialiser un système de fichiers racine ZFS. Pour procéder à l'installation d'un système de fichiers racine ZFS, vous pouvez utiliser l'option d'installation initiale ou la fonction JumpStart. Pour faire migrer un système de fichiers racine UFS vers un système de fichiers racine ZFS, vous pouvez avoir recours à la fonction Solaris Live Upgrade. ZFS est également pris en charge pour les périphériques de swap et de vidage.
Restauration d'un jeu de données ZFS sans démontage : depuis la version Solaris 10 10/08, vous avez la possibilité de restaurer un jeu de données sans avoir à passer par l'étape de démontage. Cela signifie que l'option zfs rollback -f n'est plus nécessaire pour forcer l'opération de démontage. L'option -f n'est plus prise en charge et sera ignorée si vous la spécifiez.
Améliorations de la commande zfs send : dans la version Solaris 10 10/08, les aspects suivants de la commande zfs send ont été améliorés :
Envoi de tous les flux incrémentiels d'un instantané vers un instantané cumulatif. Exemple :
# zfs list NAME USED AVAIL REFER MOUNTPOINT pool 428K 16.5G 20K /pool pool/fs 71K 16.5G 21K /pool/fs pool/fs@snapA 16K - 18.5K - pool/fs@snapB 17K - 20K - pool/fs@snapC 17K - 20.5K - pool/fs@snapD 0 - 21K - # zfs send -I pool/fs@snapA pool/fs@snapD > /snaps/fs@combo |
Cette syntaxe décrit l'envoi de tous les instantanés incrémentiels entre fs@snapA et fs@snapD vers fscombo.
Envoi d'un flux incrémentiel à partir de l'instantané d'origine pour créer un clone. L'instantané d'origine doit déjà exister sur le côté récepteur afin d'accepter le flux incrémentiel. Exemple :
# zfs send -I pool/fs@snap1 pool/clone@snapA > /snaps/fsclonesnap-I . . # zfs receive -F pool/clone < /snaps/fsclonesnap-I |
Envoi d'un flux de réplication de tous les systèmes de fichiers descendants, jusqu'aux instantanés nommés. Une fois reçus, les propriétés, instantanés, systèmes de fichiers descendants et clones sont conservés. Exemple :
# zfs send -R pool/fs@snap > snaps/fs-R |
Envoi d'un flux de réplication incrémentiel.
zfs send -R -[iI] @snapA pool/fs@snapD |
Pour plus d'exemples, reportez-vous au Guide d’administration Solaris ZFS.
Quotas et réservations ZFS pour les données d'un système de fichiers uniquement : à partir de la version Solaris 10 10/08, les quotas et les réservations de jeux de données n'incluent pas les descendants, tels que des instantanés ou des clones, dans le compte de consommation d'espace. Les fonctions de quotas et de réservations ZFS existantes restent celles des versions précédentes de Solaris.
La propriété refquota limite la quantité d'espace consommable par un jeu de données. Cette propriété définit une quantité d'espace utilisable maximale. Cette limite fixe n'inclut pas l'espace utilisé par les descendants, tels que les instantanés et les clones.
La propriété refreservation définit la quantité minimale d'espace accordée à un jeu de données (descendants exclus).
Par exemple, en définissant la propriété refquota de studentA sur 10 Go, vous spécifiez une limite fixe de 10 Go d'espace référencé. Pour une plus grande flexibilité, vous pouvez définir un quota de 20 Go qui vous permet de gérer les instantanés de studentA.
# zfs set refquota=10g tank/studentA # zfs set quota=20g tank/studentA |
Propriétés du pool de stockage ZFS : de nouvelles informations de propriétés du pool de stockage ZFS sont proposées dans la version Solaris 10 10/08.
Affichage de tous les attributs du pool : utilisez la commande zpool get all pool pour afficher toutes les propriétés du pool. Exemple :
# zpool get all users NAME PROPERTY VALUE SOURCE users size 16.8G - users used 194K - users available 16.7G - users capacity 0% - users altroot - default users health ONLINE - users guid 14526624140147884971 - users version 10 default users bootfs - default users delegation on default users autoreplace off default users cachefile - default users failmode wait default |
Propriété cachefile : cette version fournit la propriété cachefile qui contrôle l'emplacement de mise en cache des informations de configuration de pool. Tous les pools du cache sont importés automatiquement au démarrage du système. Toutefois, dans les environnements d'installation et de clustering, il peut s'avérer nécessaire de placer ces informations en cache à un autre endroit afin d'éviter l'importation automatique des pools.
Vous pouvez définir cette propriété afin de mettre la configuration de pool en cache à un autre emplacement. Il reste alors possible d'importer ultérieurement ce dernier à l'aide de la commande zpool import -c. Cette propriété n'est pas utilisée dans la plupart des configurations ZFS.
La propriété cachefile n'est pas persistante et n'est pas stockée sur le disque. Elle remplace la propriété temporary qui, dans les versions précédentes de Solaris, indiquait que les informations de pool ne devaient pas être mises en cache.
Propriété failmode : dans cette version, la propriété failmode permet de déterminer l'action à effectuer en cas d'échec catastrophique de pool causé par la perte de connectivité d'un périphérique ou la panne de tous les périphériques du pool. Vous pouvez définir la propriété failmode sur l'une des valeurs suivantes : wait, continue ou panic. La valeur par défaut est wait : vous devez reconnecter le périphérique ou remplacer le périphérique défaillant, puis effacer l'erreur à l'aide de la commande zpool clear.
La propriété failmode est définie comme les autres propriétés ZFS définissables, avant ou après la création du pool. Exemple :
# zpool set failmode=continue tank # zpool get failmode tank NAME PROPERTY VALUE SOURCE tank failmode continue local |
# zpool create -o failmode=continue users mirror c0t1d0 c1t1d0 |
Améliorations de l'historique de commande ZFS (zpool history) : à partir de la version Solaris 10 10/08, la commande zpool history offre les nouvelles fonctions suivantes :
Affichage des informations sur les événements du système de fichiers ZFS. Exemple :
# zpool history users History for 'users': 2008-07-10.09:43:05 zpool create users mirror c1t1d0 c1t2d0 2008-07-10.09:43:48 zfs create users/home 2008-07-10.09:43:56 zfs create users/home/markm 2008-07-10.09:44:02 zfs create users/home/marks 2008-07-10.09:44:19 zfs snapshot -r users/home@yesterday |
Option -l pour l'affichage d'un format long composé du nom d'utilisateur, du nom d'hôte et de la zone dans laquelle l'opération a eu lieu. Exemple :
# zpool history -l users History for 'users': 2008-07-10.09:43:05 zpool create users mirror c1t1d0 c1t2d0 [user root on corona:global] 2008-07-10.09:43:13 zfs create users/marks [user root on corona:global] 2008-07-10.09:43:44 zfs destroy users/marks [user root on corona:global] 2008-07-10.09:43:48 zfs create users/home [user root on corona:global] 2008-07-10.09:43:56 zfs create users/home/markm [user root on corona:global] 2008-07-10.09:44:02 zfs create users/home/marks [user root on corona:global] 2008-07-11.10:44:19 zfs snapshot -r users/home@yesterday [user root on corona:global] |
Option -i pour l'affichage des informations relatives aux événements internes utilisables pour établir des diagnostics. Exemple :
# zpool history -i users History for 'users': 2008-07-10.09:43:05 zpool create users mirror c1t1d0 c1t2d0 2008-07-10.09:43:13 [internal create txg:6] dataset = 21 2008-07-10.09:43:13 zfs create users/marks 2008-07-10.09:43:48 [internal create txg:12] dataset = 27 2008-07-10.09:43:48 zfs create users/home 2008-07-10.09:43:55 [internal create txg:14] dataset = 33 2008-07-10.09:43:56 zfs create users/home/markm 2008-07-10.09:44:02 [internal create txg:16] dataset = 39 2008-07-10.09:44:02 zfs create users/home/marks 2008-07-10.09:44:19 [internal snapshot txg:21] dataset = 42 2008-07-10.09:44:19 [internal snapshot txg:21] dataset = 44 2008-07-10.09:44:19 [internal snapshot txg:21] dataset = 46 2008-07-10.09:44:19 zfs snapshot -r users/home@yesterday |
Mise à niveau des systèmes de fichiers ZFS (zfs upgrade) : à partir de la version Solaris 10 10/08, vous pouvez utiliser la commande zfs upgrade pour la mise à niveau des systèmes de fichiers ZFS existants avec les améliorations apportées dans un nouveau système de fichiers. Les pools de stockage disposent d'une fonctionnalité de mise à niveau similaire permettant d'apporter des améliorations aux pools de stockage existants.
Exemple :
# zfs upgrade This system is currently running ZFS filesystem version 2. The following filesystems are out of date, and can be upgraded. After being upgraded, these filesystems (and any 'zfs send' streams generated from subsequent snapshots) will no longer be accessible by older software versions. VER FILESYSTEM --- ------------ 1 datab 1 datab/users 1 datab/users/area51 |
Les systèmes de fichiers mis à niveau, ainsi que tout flux créé à partir de ces systèmes de fichiers via la commande zfs send ne sont pas accessibles sur des systèmes exécutant des versions antérieures du logiciel.
Administration déléguée ZFS : à partir de la version Solaris 10 10/08, vous pouvez déléguer des autorisations granulaires afin de permettre à des utilisateurs non privilégiés de réaliser des tâches d'administration.
Les commandes zfs allow et zfs unallow permettent d'accorder ou de retirer les autorisations.
Vous pouvez modifier la capacité d'utilisation de l'administration déléguée à l'aide de la propriété delegation du pool. Exemple :
# zpool get delegation users NAME PROPERTY VALUE SOURCE users delegation on default # zpool set delegation=off users # zpool get delegation users NAME PROPERTY VALUE SOURCE users delegation off local |
Par défaut, la propriété delegation est activée.
Définition de périphériques de journalisation ZFS distincts : le ZIL (ZFS Intent Log, journal de tentatives ZFS) permet de remplir les conditions POSIX pour les transactions synchrones. Par exemple, les transactions de base de données doivent souvent se trouver sur des périphériques de stockage stables lorsqu'elles sont obtenues à partir d'un appel système. NFS et d'autres applications peuvent également assurer la stabilité des données à l'aide de fsync(). Par défaut, le ZIL est attribué à partir de blocs dans le pool de stockage principal. Cependant, il est possible d'obtenir de meilleures performances dans la version Solaris 10 10/08 en utilisant des périphériques ZIL séparés dans le pool de stockage ZFS, par exemple NVRAM ou un disque dédié.
Les périphériques de journalisation du ZIL ne sont pas liés aux fichiers journaux de base de données.
Vous pouvez installer un périphérique de journalisation ZFS au moment de la création du pool de stockage ou après la création du pool. Pour des exemples de définition des périphériques de journalisation, reportez-vous au Guide d’administration Solaris ZFS.
Création de jeux de données ZFS intermédiaires : à partir de la version Solaris 10 10/08, vous pouvez appliquer l'option -p aux commandes zfs create, zfs clone et zfs rename afin de créer rapidement un jeu de données intermédiaire, s'il n'existe pas encore.
Par exemple, créez les jeux de données ZFS users/area51 dans le pool de stockage datab.
# zfs list NAME USED AVAIL REFER MOUNTPOINT datab 106K 16.5G 18K /datab # zfs create -p -o compression=on datab/users/area51 |
Si le jeu de données intermédiaire existe pendant l'opération de création, celle-ci est réussie.
Les propriétés spécifiées s'appliquent au jeu de données cible, mais pas aux jeux de données intermédiaires. Exemple :
# zfs get mountpoint,compression datab/users/area51 NAME PROPERTY VALUE SOURCE datab/users/area51 mountpoint /datab/users/area51 default datab/users/area51 compression on local |
Le jeu de données intermédiaire est créé avec le point de montage par défaut. Toute propriété supplémentaire est désactivée pour ce jeu de données. Exemple :
# zfs get mountpoint,compression datab/users NAME PROPERTY VALUE SOURCE datab/users mountpoint /datab/users default datab/users compression off default |
Pour de plus amples informations, reportez-vous à la page de manuel zfs(1M).
Améliorations de la connexion à chaud ZFS : à partir de la version Solaris 10 10/08, ZFS réagit plus efficacement lors du retrait d'un périphérique et fournit un mécanisme d'identification automatique des périphériques introduits :
Vous pouvez remplacer un périphérique existant par un périphérique équivalent sans utiliser la commande zpool replace.
La propriété autoreplace contrôle le remplacement automatique de périphériques. Si le remplacement du périphérique est désactivé, l'administrateur doit l'initier à l'aide de la commande zpool replace. Dans le cas contraire, tout nouveau périphérique se trouvant au même emplacement physique qu'un périphérique qui appartenait auparavant au pool est automatiquement formaté et remplacé. Par défaut, le remplacement est désactivé.
L'état de pool de stockage REMOVED est fourni lors du retrait du périphérique ou d'un disque hot spare, en cas de retrait physique du périphérique alors que le système est en cours d'exécution. Si un disque hot spare est disponible, il remplace le périphérique retiré.
Si un périphérique est retiré, puis inséré, il est mis en ligne. Si un disque hot spare est activé lors de la réinsertion du périphérique, le disque hot spare est retiré une fois l'opération en ligne terminée.
La détection automatique du retrait ou de l'insertion de périphériques dépend du matériel utilisé. Il est possible qu'elle ne soit pas prise en charge sur certaines plates-formes. Par exemple, les périphériques USB sont configurés automatiquement après insertion. Toutefois, pour configurer un pilote SATA, vous devez éventuellement utiliser la commande cfadm -c configure.
Les disques hot spare sont consultés régulièrement afin de vérifier qu'ils sont en ligne et disponibles.
Pour plus d'informations, voir la page de manuel zpool(1M).
Attribution récursive de nouveaux noms aux instantanés ZFS (zfs rename -r) : à partir de la version Solaris 10 10/08, vous pouvez attribuer un nouveau nom récursivement à tous les instantanés ZFS descendants via la commande zfs rename -r.
Par exemple, prenez des instantanés d'un jeu de systèmes de fichiers ZFS.
# zfs snapshot -r users/home@today # zfs list NAME USED AVAIL REFER MOUNTPOINT users 216K 16.5G 20K /users users/home 76K 16.5G 22K /users/home users/home@today 0 - 22K - users/home/markm 18K 16.5G 18K /users/home/markm users/home/markm@today 0 - 18K - users/home/marks 18K 16.5G 18K /users/home/marks users/home/marks@today 0 - 18K - users/home/neil 18K 16.5G 18K /users/home/neil users/home/neil@today 0 - 18K - |
Le lendemain, renommez ces instantanés.
# zfs rename -r users/home@today @yesterday # zfs list NAME USED AVAIL REFER MOUNTPOINT users 216K 16.5G 20K /users users/home 76K 16.5G 22K /users/home users/home@yesterday 0 - 22K - users/home/markm 18K 16.5G 18K /users/home/markm users/home/markm@yesterday 0 - 18K - users/home/marks 18K 16.5G 18K /users/home/marks users/home/marks@yesterday 0 - 18K - users/home/neil 18K 16.5G 18K /users/home/neil users/home/neil@yesterday 0 - 18K - |
Les instantanés sont les seuls jeux de données qu'il est possible de renommer de façon récursive.
Compression GZIP désormais disponible pour ZFS : à partir de la version Solaris 10 10/08, outre la compression LZJB, vous pouvez également définir une compression GZIP sur des systèmes de fichiers ZFS. Vous pouvez spécifier la compression gzip (format par défaut) ou gzip-N où N correspond à un chiffre entre 1 et 9. Exemple :
# zfs create -o compression=gzip users/home/snapshots # zfs get compression users/home/snapshots NAME PROPERTY VALUE SOURCE users/home/snapshots compression gzip local # zfs create -o compression=gzip-9 users/home/oldfiles # zfs get compression users/home/oldfiles NAME PROPERTY VALUE SOURCE users/home/oldfiles compression gzip-9 local |
Stockage de plusieurs copies de données utilisateur ZFS : en tant que fonction de fiabilité, lorsque cela est possible, un système de fichiers ZFS peut stocker plusieurs fois et de manière automatique les métadonnées sur des disques différents. Cette fonction est connue sous le terme anglais de ditto blocks. Désormais, à partir de la version Solaris 10 10/08, vous pouvez également demander à stocker plusieurs copies des données utilisateur par système de fichiers à l'aide de la commande zfs set copies. Exemple :
# zfs set copies=2 users/home # zfs get copies users/home NAME PROPERTY VALUE SOURCE users/home copies 2 local |
Les valeurs disponibles sont 1, 2 et 3. La valeur par défaut est 1. Ces copies constituent un ajout à toute redondance de niveau pool, par exemple dans une configuration en miroir ou RAID-Z.
Pour plus d'informations sur l'utilisation de cette propriété, reportez-vous au Guide d’administration Solaris ZFS.
Les fonctions suivantes ont été introduites dans des versions précédentes du SE Solaris :
Historique de commande ZFS (zpool history) : à partir de la version Solaris 10 8/07, ZFS consigne automatiquement les commandes zfs et zpool correctement exécutées modifiant les informations relatives à l'état de pool. Cette fonction vous permet, ainsi qu'au personnel de support Sun, d'identifier les commandes ZFS exactes exécutées pour résoudre un scénario d'erreur.
Optimisation des informations sur l'état du pool de stockage (zpool status) : à partir de la version Solaris 10 8/07, vous pouvez vous servir de la commande zpool status - v pour afficher la liste des fichiers présentant des erreurs persistantes. Auparavant, il était nécessaire d'utiliser la commande find -inum pour identifier les noms de fichiers à partir de la liste des inodes affichés.
Améliorations ZFS et Solaris iSCSI : à partir de la version Solaris 10 8/07, vous avez la possibilité de créer un volume ZFS en tant que périphérique cible Solaris iSCSI en appliquant la propriété shareiscsi au volume ZFS. Cette méthode permet de configurer rapidement et facilement une cible Solaris iSCSI. Exemple :
# zfs create -V 2g tank/volumes/v2 # zfs set shareiscsi=on tank/volumes/v2 # iscsitadm list target Target: tank/volumes/v2 iSCSI Name: iqn.1986-03.com.sun:02:984fe301-c412-ccc1-cc80-cf9a72aa062a Connections: 0 |
Une fois la cible iSCSI créée, il convient de configurer l'initiateur iSCSI. Pour obtenir des informations sur la configuration d'un initiateur Solaris iSCSI, consultez le Chapitre 14, Configuring Solaris iSCSI Targets and Initiators (Tasks) du System Administration Guide: Devices and File Systems.
Pour plus d'informations sur la gestion d'un volume ZFS sur une cible iSCSI, reportez-vous au Guide d’administration Solaris ZFS.
Améliorations de la propriété ZFS
Propriété ZFS xattr : à partir de la version Solaris 10 8/07, la propriété xattr permet d'activer ou de désactiver les attributs étendus pour un système de fichiers ZFS spécifique. La valeur par défaut est on.
Propriété ZFS canmount : à partir de la version Solaris 10 8/07, la propriété canmount permet de spécifier si un jeu de données peut être monté à l'aide de la commande zfs mount.
Propriétés utilisateur ZFS : à partir de la version Solaris 10 8/07, ZFS prend en charge les propriétés utilisateur, en plus des propriétés natives standard permettant d'exporter des statistiques internes ou de contrôler le comportement du système de fichiers ZFS. Les propriétés définies par l'utilisateur n'ont aucune incidence sur le comportement du système ZFS. En revanche, elles permettent d'annoter les jeux de données avec des informations adaptées à votre environnement.
Configuration des propriétés lors de la création de systèmes de fichiers ZFS : à partir de la version Solaris 10 8/07, vous pouvez définir des propriétés non seulement après avoir créé un système de fichiers, mais aussi pendant sa création.
Les exemples suivants montrent la syntaxe équivalente :
# zfs create tank/home # zfs set mountpoint=/export/zfs tank/home # zfs set sharenfs=on tank/home # zfs set compression=on tank/home |
Vous pouvez également configurer les propriétés une fois le système de fichiers créé.
# zfs create -o mountpoint=/export/zfs -o sharenfs=on -o compression=on tank/home |
Affichage de l'intégrité des informations des systèmes de fichiers ZFS : à partir de la version Solaris 10 8/07, vous pouvez utiliser diverses formes de la commande zfs get pour obtenir des informations sur tous les jeux de données, si vous n'en indiquez aucun en particulier. Dans les versions précédentes, il n'était pas possible de récupérer les informations relatives à tous les jeux de données avec la commande zfs get.
Exemple :
# zfs get -s local all tank/home atime off local tank/home/bonwick atime off local tank/home/marks quota 50G local |
Nouvelle option zfs receive -F : dans la version Solaris 10 8/07, vous pouvez tirer parti de la nouvelle option -F de la commande zfs receive pour restaurer le dernier instantané du système de fichiers avant de procéder à la réception. Il peut être utile de faire appel à cette option en cas de modification du système de fichiers entre le moment où la restauration se produit et le moment où l'opération de réception commence.
Instantanés ZFS récursifs : dans la version Solaris 10 11/06, vous pouvez utiliser les instantanés récursifs. Lors de la création d'un instantané de système de fichiers à l'aide de la commande zfs snapshot, vous pouvez créer récursivement des instantanés pour tous les systèmes de fichiers descendants en spécifiant l'option -r. L'option -r permet en outre de détruire récursivement tous les instantanés descendants lors de la destruction d'un instantané.
RAID-Z à deux parités ( raidz2) : dans la version Solaris 10 11/06, la configuration RAID-Z répliquée peut présenter une parité simple ou double. Cela permet de gérer une ou deux pannes de périphérique sans perte de données. Le mot-clé raidz2 permet de spécifier une configuration RAID-Z à deux parités. Pour spécifier une configuration RAID-Z à une parité, vous avez le choix entre les mots-clés raidz et raidz1.
Disques hot spare pour périphériques de pool de stockage ZFS : à partir de la version Solaris 10 11/06, la fonction de disques hot spare ZFS permet d'identifier les disques qui peuvent être utilisés pour remplacer un périphérique défaillant dans un ou plusieurs pools de stockage. Le périphérique hot spare peut immédiatement remplacer tout périphérique actif du pool qui tombe en panne. Vous pouvez également effectuer ce remplacement manuellement.
Remplacement d'un système de fichiers ZFS par un clone ZFS (zfs promote) : dans la version Solaris 10 11/06, la commande zfs promote permet de remplacer un système de fichiers ZFS existant par un clone de ce système de fichiers. Cette fonctionnalité permet de tester la nouvelle version d'un système de fichiers, puis de la définir comme système de fichiers actif.
Améliorations relatives à ZFS et aux zones : dans la version Solaris 10 11/06, les interactions entre ZFS et les zones ont été améliorées. Sur un système Solaris doté de zones, il est possible d'utiliser la fonction zoneadm clone pour copier les données d'un zonepath ZFS source existant vers un zonepath ZFS cible de votre système. Vous ne pouvez pas faire appel à la fonction de clonage ZFS pour cloner la zone non globale. Vous devez utiliser la commande zoneadm clone. Pour obtenir des informations supplémentaires, reportez-vous au Guide d’administration système : Gestion des ressources conteneurs Solaris et des zones Solaris.
Mise à niveau des pools de stockage ZFS (zpool upgrade) : à partir de la version Solaris 10 6/06, vous pouvez mettre à niveau les pools de stockage et profiter des toutes dernières fonctionnalités à l'aide de la commande zpool upgrade. De plus, la commande zpool status indique dorénavant si la version actuelle des pools est plus ancienne.
Suppression des erreurs de périphérique : à partir de la version Solaris 10 6/06, vous pouvez effacer le décompte des erreurs associées à un périphérique ou au pool à l'aide de la commande zpool clear. Auparavant, les décomptes d'erreurs étaient effacés lors de la mise en ligne du périphérique d'un pool avec la commande zpool online.
Récupération des pools détruits : dans la version Solaris 10 6/06, la commande zpool import -D permet de récupérer les pools précédemment détruits à l'aide de la commande zpool destroy.
Attribution de nouveaux noms aux commandes de restauration et de sauvegarde ZFS : dans la version Solaris 10 6/06, les commandes zfs backup et zfs restore s'appellent désormais zfs send et zfs receive, afin de mieux décrire leur fonction. Cette dernière consiste à enregistrer et restaurer les représentations de flux de données ZFS.
Format NFSv4 ACL compact : à partir de la version Solaris 10 6/06, trois formats NFSv4 ACL sont à votre disposition : détaillé, positionnel et compact. Les nouveaux formats ACL compact et positionnel permettent de définir et d'afficher les listes de contrôle. La commande chmod permet de définir les trois formats ACL. Pour afficher les formats ACL compact et positionnel, utilisez la commande 1s -V. Pour afficher les formats ACL détaillés, utilisez la commande 1s -v.
Mise hors ligne temporaire des périphériques : à partir de la version Solaris 10 6/06, vous pouvez utiliser la commande zpool offline -t pour mettre un périphérique momentanément hors ligne. En cas de réinitialisation du système, le périphérique revient automatiquement à l'état ONLINE.
Intégration de ZFS au gestionnaire de pannes : la version Solaris 10 6/06 inclut un moteur de diagnostic ZFS qui permet de diagnostiquer les pannes et d'établir des rapports sur les pools et les périphériques défaillants. Les erreurs liées aux sommes de contrôle, aux E/S et aux périphériques font également l'objet de rapports lorsqu'elles sont liées à la défaillance d'un pool ou d'un périphérique. Les informations relatives aux erreurs de diagnostic sont écrites dans la console et le fichier /var/adm/messages. De plus, la commande zpool status affiche des informations détaillées sur les erreurs de récupération signalées.
Pour de plus amples informations sur ces améliorations et modifications, reportez-vous au Guide d’administration Solaris ZFS.
Les sections Nouveautés suivantes contiennent des informations complémentaires sur la fonction ZFS :
Les outils d'installation Solaris présentés ci-dessous ont été améliorés dans la version Solaris 10 10/08 de manière à prendre en charge les systèmes de fichiers ZFS.
Programme d'installation interactif Solaris en mode texte permettant d'installer un système de fichiers racine UFS ou ZFS. Le système de fichiers par défaut reste UFS pour la version Solaris 10 10/08.
Les fonctions de l'installation JumpStart personnalisée, permettant la configuration d'un profil utile à la création d'un pool de stockage ZFS et à la désignation d'un système de fichiers ZFS initialisables.
La migration d'un système de fichiers racine UFS vers un système de fichiers racine ZFS à l'aide de la fonction SolarisTM Live Upgrade. Les commandes lucreate et luactivate ont été améliorées afin de prendre en charge les pools et les systèmes de fichiers ZFS. L'utilisation des commandes lustatus et ludelete reste inchangée par rapport aux versions précédentes de Solaris.
La configuration d'un pool racine ZFS mis en miroir via la sélection de deux disques au cours de l'installation. Vous pourrez également créer un pool racine ZFS en miroir en attachant ou en ajoutant des disques après l'installation.
La création automatique de périphériques de swap et de vidage sur des volumes ZFS dans le pool racine ZFS.
Pour plus d'informations, reportez-vous au Guide d’administration Solaris ZFS.
Pour les versions précédentes de Solaris 10, consultez la prise en charge limitée, exposée ci-dessous, des outils d'installation Solaris pour les systèmes de fichiers ZFS.
Installation JumpStart personnalisée : vous ne pouvez pas inclure de systèmes de fichiers ZFS dans un profil JumpStart. Il est possible, en revanche, d'exécuter les scripts suivants à partir d'un pool de stockage ZFS afin de configurer un serveur ou un client d'installation :
setup_install_server
add_install_server
add_install_client
Live Upgrade : préserve votre environnement d'initialisation d'origine et transfère vos pools de stockage ZFS dans le nouvel environnement. Actuellement, ZFS n'étant pas utilisable en tant que système de fichiers racine d'initialisation, la copie des systèmes de fichiers ZFS dans l'environnement d'initialisation est donc impossible.
Installation initiale Solaris - Les systèmes de fichiers ZFS ne sont pas reconnus pendant l'installation initiale. Cependant, si vous ne spécifiez aucun périphérique disque contenant des pools de stockage ZFS à utiliser pour l'installation, vous devez pouvoir récupérer vos pools de stockage à l'aide de la commande zpool import après l'installation. Pour plus d'informations, voir la page de manuel zpool(1M).
Dans le cadre de la plupart des réinstallations, vous devez sauvegarder vos fichiers ZFS avant de procéder à l'installation initiale.
Solaris Upgrade – Vos systèmes de fichiers ZFS et vos pools de stockage sont préservés.
SunVTSTM 7.0 Patch Set 3 suit un modèle d'architecture conventionnelle à trois niveaux, à savoir une interface utilisateur de type navigateur, un serveur intermédiaire basé sur la technologie JavaTM et un agent de diagnostics. Les améliorations suivantes ont été apportées à SunVTS Patch Set 3 :
Les tests de disque et de réseau permettent la sélection et la désélection de périphériques.
L'interface utilisateur de type navigateur et l'interface utilisateur TTY prennent en charge les cases à cocher des options de test logique.
Les tests fputest et cache ont été améliorés pour les plates-formes x86.
disktest a été mis à jour et n'effectue aucun test en écriture sur les partitions du système de fichiers.
Pour plus d'informations sur SunVTS, reportez-vous à la page Web http://docs.sun.com/app/docs/prod/test.validate.
À partir de la version Solaris 10 10/08, les sondes lockstat de DTrace, qui affichaient le compte de rotations, renvoient désormais le temps de rotation en nanosecondes. L'interface du fournisseur lockstat et les options de la commande lockstat restent inchangées.