Cette section décrit les nouvelles fonctionnalités ZFS de Solaris Express Developer Edition version 9/07.
Améliorations de l'historique de commandes ZFS : la commande zpool history comprend désormais de nouvelles options permettant de consigner les événements de système de fichiers ZFS, ainsi qu'un formatage long incluant le nom d'utilisateur, le nom d'hôte et la zone dans laquelle a été effectuée l'opération.
Par exemple, l'option zpool history-i permet d'obtenir les événements de commandes zpool et zfs.
# zpool history -i users History for 'users': 2007-04-26.12:44:02 zpool create users mirror c0t8d0 c0t9d0 c0t10d0 2007-04-26.12:46:13 zfs create users/home 2007-04-26.12:46:18 zfs create users/home/markm 2007-04-26.12:46:23 zfs create users/home/marks 2007-04-26.12:46:30 zfs create users/home/neil 2007-04-26.12:47:15 zfs snapshot -r users/home@yesterday 2007-04-26.12:54:50 zfs snapshot -r users/home@today 2007-04-26.13:29:13 zfs create users/snapshots |
L'option zpool history -1 permet d'obtenir un formatage long. Par exemple :
# zpool history -l tank History for 'tank': 2007-07-19.10:55:13 zpool create tank mirror c0t1d0 c0t11d0 [user root on neo:global] 2007-07-19.10:55:19 zfs create tank/cindys [user root on neo:global] 2007-07-19.10:55:49 zfs allow cindys create,destroy,mount,snapshot tank/cindys [user root on neo:global] 2007-07-19.10:56:24 zfs create tank/cindys/data [user cindys on neo:global] |
Pour de plus amples informations, reportez-vous à la page de manuel zpool(1M).
Mise à niveau des systèmes de fichiers ZFS (zfs upgrade) : à partir de cette version, la commande zfs upgrade est incluse afin de permettre les améliorations futures de systèmes de fichiers aux systèmes de fichiers ZFS existants. Les pools de stockage disposent d'une fonctionnalité de mise à niveau similaire permettant d'apporter des améliorations aux pools de stockage existants.
Par exemple :
# zfs upgrade This system is currently running ZFS filesystem version 2. The following filesystems are out of date, and can be upgraded. After being upgraded, these filesystems (and any 'zfs send' streams generated from subsequent snapshots) will no longer be accessible by older software versions. VER FILESYSTEM --- ------------ 1 datab 1 datab/users 1 datab/users/area51 |
Cependant, aucune nouvelle fonctionnalité de mise à niveau de systèmes de fichiers ZFS n'est fournie dans cette version.
Administration déléguée ZFS : à partir de cette version, vous pouvez déléguer les autorisations à granularité fine afin de permettre à des utilisateurs non privilégiés de réaliser des tâches d'administration. Les commandes zfs allow et zfs unallow permettent d'accorder ou de retirer les autorisations.
L'exemple suivant illustre la définition des autorisations afin que l'utilisateur cindys puisse créer, supprimer, monter et prendre des instantanés sur tank/cindys. Les autorisations sur tank/cindys sont affichées également.
# zfs allow cindys create,destroy,mount,snapshot tank/cindys # zfs allow tank/cindys ------------------------------------------------------------- Local+Descendent permissions on (tank/cindys) user cindys create,destroy,mount,snapshot ------------------------------------------------------------- |
Dans la mesure où l'autorisation de point de montage tank/cindys est définie sur 755 par défaut, l'utilisateur cindys ne pourra pas monter les systèmes de fichiers sous tank/cindys. Définissez une ACL similaire à la syntaxe suivante afin de fournir un point d'accès de montage.
# chmod A+user:cindys:add_subdirectory:allow /tank/cindys |
Vous pouvez modifier la capacité d'utilisation de l'administration déléguée de ZFS à l'aide de la propriété delegation du pool. Par exemple :
# zpool get delegation users NAME PROPERTY VALUE SOURCE users delegation on default # zpool set delegation=off users # zpool get delegation users NAME PROPERTY VALUE SOURCE users delegation off local |
Par défaut, la propriété delegation est activée.
Pour de plus amples informations, reportez-vous au Chapter 8, ZFS Delegated Administration, du ZFS Administration Guide .
Définition de périphériques de journalisation ZFS distincts : le ZIL (ZFS Intent Log, journal de tentatives ZFS) permet de remplir les conditions POSIX pour les transactions synchrones. Par exemple, les transactions de base de données doivent souvent se trouver sur des périphériques de stockage stables lorsqu'elles sont obtenues à partir d'un appel système. NFS et d'autres applications peuvent également assurer la stabilité des données à l'aide de fsync(). Par défaut, le ZIL est attribué à partir de blocs dans le pool de stockage principal. Cependant, il est possible d'obtenir de meilleures performances en utilisant des périphériques de journalisation de tentatives séparés dans le pool de stockage ZFS, par exemple NVRAM ou un disque dédié.
Les périphériques de journalisation du ZIL ne sont pas liés aux fichiers journaux de base de données.
Vous pouvez définir des périphériques de journalisation ZFS distincts comme suit :
pendant ou après la création du pool de stockage ZFS ;
connexion d'un périphérique de journal à un périphérique journal existant afin de créer un périphérique mis en miroir. Cette opération est similaire à la connexion d'un périphérique à un pool de stockage qui n'est pas mis en miroir.
Pour obtenir des exemples de configuration de périphériques de journal, reportez-vous à la section Creating a ZFS Storage Pool with Log Devices du ZFS Administration Guide et à la section Adding Devices to a Storage Pool du ZFS Administration Guide .
Pour déterminer si l'utilisation de périphériques de journalisation ZFS distincts est adaptée à votre environnement, reportez-vous à la section Setting Up Separate ZFS Logging Devices du ZFS Administration Guide .
Création de jeux de données ZFS intermédiaires : vous pouvez appliquer l'option -p aux commandes zfs create, zfs clone et zfs rename afin de créer rapidement un jeu de données intermédiaire non existant, s'il n'existe pas encore.
Par exemple, créez les jeux de données ZFS users/area51 dans le pool de stockage datab.
# zfs list NAME USED AVAIL REFER MOUNTPOINT datab 106K 16.5G 18K /datab # zfs create -p -o compression=on datab/users/area51 |
Si le jeu de données intermédiaire existe pendant l'opération de création, celle-ci est réussie.
Les propriétés spécifiées s'appliquent au jeu de données cible, mais pas aux jeux de données intermédiaires. Par exemple :
# zfs get mountpoint,compression datab/users/area51 NAME PROPERTY VALUE SOURCE datab/users/area51 mountpoint /datab/users/area51 default datab/users/area51 compression on local |
Le jeu de données intermédiaire est créé avec le point de montage par défaut. Toute propriété supplémentaire est désactivée pour ce jeu de données. Par exemple :
# zfs get mountpoint,compression datab/users NAME PROPERTY VALUE SOURCE datab/users mountpoint /datab/users default datab/users compression off default |
Pour de plus amples informations, reportez-vous à la page de manuel zfs(1M).
Améliorations de l'enfichage à chaud de ZFS : à partir de cette version, ZFS réagit plus efficacement au retrait de périphériques. ZFS fournit également un mécanisme permettant d'identifier automatiquement les périphériques insérés avec les améliorations suivantes :
Vous pouvez remplacer un périphérique existant par un périphérique équivalent sans utiliser la commande zpool replace.
La propriété autoreplace contrôle le remplacement automatique de périphériques. Si la propriété est désactivée, l'administrateur doit initier le remplacement du périphérique à l'aide de la commande zpool replace. Dans le cas contraire, tout nouveau périphérique se trouvant au même emplacement physique qu'un périphérique qui appartenait au pool est automatiquement formaté et remplacé. Par défaut, la propriété autoreplace est désactivée.
L'état de pool de stockage REMOVED est fourni lors du retrait du périphérique ou d'un disque hot spare, en cas de retrait physique du périphérique alors que le système est en cours d'exécution. Si un disque hot spare est disponible, il remplace le périphérique retiré.
Si un périphérique est retiré, puis inséré, il est mis en ligne. Si un disque hot spare est activé lors de la réinsertion du périphérique, le disque hot spare est retiré une fois l'opération en ligne terminée.
La détection automatique du retrait ou de l'insertion de périphériques dépend du matériel utilisé. Il est possible qu'elle ne soit pas prise en charge sur certaines plates-formes.
Les disques hot spare sont consultés régulièrement afin de vérifier qu'ils sont en ligne et disponibles.
Pour de plus amples informations, reportez-vous à la page de manuel zpool(1M).
Pour de plus amples informations sur ces améliorations apportées au système de fichiers ZFS, reportez-vous au ZFS Administration Guide.