La sezione seguente riassume le nuove funzioni del file system ZFS. Per maggiori informazioni su queste nuove funzioni, vedere il manuale Solaris ZFS Administration Guide.
Supporto dell'installazione e dell'avvio per ZFS – A partire da Solaris 10 10/08, è possibile installare e avviare un file system radice ZFS. È possibile utilizzare l'installazione iniziale o la funzione JumpStart per installare un file system radice ZFS. La funzione Solaris Live Upgrade può essere utilizzata per eseguire la migrazione di un file system radice (/) UFS a un file system radice ZFS. È disponibile anche il supporto ZFS per i dispositivi di swap e dump.
Rollback di un set di dati ZFS senza disattivazione – A partire da Solaris 10 10/08, è possibile eseguire il rollback di un set di dati senza prima disattivarlo. Non è quindi più necessario usare l'opzione zfs rollback -f per forzare la disattivazione. L'opzione -f non è più supportata e viene ignorata se viene specificata.
Miglioramenti al comando zfs send – Solaris 10 10/08 include i seguenti miglioramenti al comando zfs send:
È possibile inviare tutti i flussi incrementali provenienti da uno stesso snapshot a uno snapshot cumulativo. Ad esempio:
# zfs list NAME USED AVAIL REFER MOUNTPOINT pool 428K 16.5G 20K /pool pool/fs 71K 16.5G 21K /pool/fs pool/fs@snapA 16K - 18.5K - pool/fs@snapB 17K - 20K - pool/fs@snapC 17K - 20.5K - pool/fs@snapD 0 - 21K - # zfs send -I pool/fs@snapA pool/fs@snapD > /snaps/fs@combo |
La sintassi seguente spiega come inviare tutti gli snapshot incrementali inclusi tra fs@snapA e fs@snapD a fs@combo.
È possibile inviare un flusso incrementale dallo snapshot di origine per creare un clone. Perché il flusso incrementale venga accettato, lo snapshot originale deve essere già presente sul lato di ricezione. Ad esempio:
# zfs send -I pool/fs@snap1 pool/clone@snapA > /snaps/fsclonesnap-I . . # zfs receive -F pool/clone < /snaps/fsclonesnap-I |
È possibile inviare un flusso di replicazione che includa tutti i file system discendenti fino agli snapshot specificati. Alla ricezione, verranno preservate tutte le proprietà, gli snapshot, i file system discendenti e i cloni. Ad esempio:
# zfs send -R pool/fs@snap > snaps/fs-R |
È possibile inviare un flusso di replicazione incrementale.
zfs send -R -[iI] @snapA pool/fs@snapD |
Per consultare vari esempi di queste procedure, vedere il manuale Solaris ZFS Administration Guide.
Quote e prenotazioni ZFS per i soli dati dei file system – A partire da Solaris 10 10/08, sono disponibili quote e prenotazioni dei set di dati che non includono discendenti, ad esempio snapshot e cloni, nella determinazione del consumo di spazio. Le funzioni esistenti per le quote e le prenotazioni ZFS restano immutate rispetto alle precedenti versioni di Solaris.
La proprietà refquota limita la quantità di spazio che può essere occupata da un set di dati. Questa proprietà impone un limite fisico alla quantità di spazio utilizzabile. Tale limite fisico non include lo spazio utilizzato dai discendenti, ad esempio dagli snapshot o dai cloni.
La proprietà refreservation imposta la quantità di spazio minima garantita per i set di dati, esclusi i relativi discendenti.
Ad esempio, è possibile impostare una refquota di 10 Gbyte per lo studenteA che fissi un limite fisico di 10 Gbyte per lo spazio referenziato. Per ottenere una maggiore flessibilità, è possibile impostare una quota di 20 Gbyte che consenta di gestire gli snapshot dello studenteA.
# zfs set refquota=10g tank/studenteA # zfs set quota=20g tank/studenteA |
Proprietà dei pool di memorizzazione ZFS – In Solaris 10 10/08 sono presenti nuove informazioni sulle proprietà dei pool di memorizzazione ZFS.
Visualizzazione di tutti gli attributi del pool – È possibile usare il comando zpool get all pool per visualizzare tutte le proprietà di un pool. Ad esempio:
# zpool get all users NAME PROPERTY VALUE SOURCE users size 16.8G - users used 194K - users available 16.7G - users capacity 0% - users altroot - default users health ONLINE - users guid 14526624140147884971 - users version 10 default users bootfs - default users delegation on default users autoreplace off default users cachefile - default users failmode wait default |
Proprietà cachefile – Questa versione contiene la proprietà cachefile, che controlla la posizione della cache in cui vengono scritte le informazioni di configurazione del pool. All'avvio del sistema vengono automaticamente importati tutti i pool memorizzati nella cache. Negli ambienti di installazione e di clustering, tuttavia, può essere necessario memorizzare queste informazioni in una posizione differente per evitare l'importazione automatica dei pool.
Questa proprietà permette di salvare la configurazione dei pool in una posizione diversa nella cache, che potrà essere importata successivamente con il comando zpool import -c. Per la maggior parte delle configurazioni ZFS, questa proprietà non è necessaria.
La proprietà cachefile non è persistente e non viene memorizzata su disco. Sostituisce la proprietà temporary, usata nelle precedenti versioni di Solaris per impedire che le informazioni sui pool venissero memorizzate nella cache.
Proprietà failmode – Questa versione utilizza la proprietà failmode per determinare il comportamento dei pool in seguito a un errore irrecuperabile dovuto alla perdita di connettività di un dispositivo o all'interruzione di tutti i dispositivi del pool. La proprietà failmode può essere impostata sui seguenti valori: wait, continue o panic. Il valore predefinito è wait; con questa impostazione, è necessario riconnettere o sostituire il dispositivo ed eliminare la condizione di errore con il comando zpool clear.
La proprietà failmode può essere impostata come le altre proprietà di ZFS e può essere definita sia prima che dopo la creazione del pool. Ad esempio:
# zpool set failmode=continue tank # zpool get failmode tank NAME PROPERTY VALUE SOURCE tank failmode continue local |
# zpool create -o failmode=continue users mirror c0t1d0 c1t1d0 |
Miglioramenti alla cronologia dei comandi ZFS (zpool history) – A partire da Solaris 10 10/08, il comando zpool history offre le seguenti nuove funzioni:
Vengono visualizzate le informazioni sugli eventi del file system ZFS. Ad esempio:
# zpool history users History for 'users': 2008-07-10.09:43:05 zpool create users mirror c1t1d0 c1t2d0 2008-07-10.09:43:48 zfs create users/home 2008-07-10.09:43:56 zfs create users/home/markm 2008-07-10.09:44:02 zfs create users/home/marks 2008-07-10.09:44:19 zfs snapshot -r users/home@yesterday |
L'opzione -l consente di visualizzare un formato esteso che include il nome utente, il nome host e la zona in cui l'operazione è stata eseguita. Ad esempio:
# zpool history -l users History for 'users': 2008-07-10.09:43:05 zpool create users mirror c1t1d0 c1t2d0 [user root on corona:global] 2008-07-10.09:43:13 zfs create users/marks [user root on corona:global] 2008-07-10.09:43:44 zfs destroy users/marks [user root on corona:global] 2008-07-10.09:43:48 zfs create users/home [user root on corona:global] 2008-07-10.09:43:56 zfs create users/home/markm [user root on corona:global] 2008-07-10.09:44:02 zfs create users/home/marks [user root on corona:global] 2008-07-11.10:44:19 zfs snapshot -r users/home@yesterday [user root on corona:global] |
L'opzione -i consente di visualizzare alcune informazioni sugli eventi interni che possono essere usate a scopo diagnostico. Ad esempio:
# zpool history -i users History for 'users': 2008-07-10.09:43:05 zpool create users mirror c1t1d0 c1t2d0 2008-07-10.09:43:13 [internal create txg:6] dataset = 21 2008-07-10.09:43:13 zfs create users/marks 2008-07-10.09:43:48 [internal create txg:12] dataset = 27 2008-07-10.09:43:48 zfs create users/home 2008-07-10.09:43:55 [internal create txg:14] dataset = 33 2008-07-10.09:43:56 zfs create users/home/markm 2008-07-10.09:44:02 [internal create txg:16] dataset = 39 2008-07-10.09:44:02 zfs create users/home/marks 2008-07-10.09:44:19 [internal snapshot txg:21] dataset = 42 2008-07-10.09:44:19 [internal snapshot txg:21] dataset = 44 2008-07-10.09:44:19 [internal snapshot txg:21] dataset = 46 2008-07-10.09:44:19 zfs snapshot -r users/home@yesterday |
Aggiornamento dei file system ZFS (zfs upgrade) – A partire da Solaris 10 10/08 è possibile utilizzare il comando zfs upgrade per aggiornare i file system ZFS esistenti con nuove funzionalità. I pool di storage ZFS comprendono una funzione di aggiornamento analoga che consente il miglioramento dei pool esistenti.
Ad esempio:
# zfs upgrade This system is currently running ZFS filesystem version 2. The following filesystems are out of date, and can be upgraded. After being upgraded, these filesystems (and any 'zfs send' streams generated from subsequent snapshots) will no longer be accessible by older software versions. VER FILESYSTEM --- ------------ 1 datab 1 datab/users 1 datab/users/area51 |
I file system che sono stati aggiornati e tutti gli eventuali flussi che sono stati creati a partire da questi file system con il comando zfs send non sono accessibili dai sistemi che eseguono versioni precedenti del software.
Amministrazione delegata di ZFS – A partire da Solaris 10 10/08, è possibile delegare le autorizzazioni in modo differenziato per consentire ad utenti non privilegiati di eseguire attività di amministrazione in ZFS.
Per assegnare e revocare le autorizzazioni è possibile utilizzare i comandi zfs allow e zfs unallow.
Le autorizzazioni all'uso delle funzioni di amministrazione delegate possono essere modificate con la proprietà delegation del pool. Ad esempio:
# zpool get delegation users NAME PROPERTY VALUE SOURCE users delegation on default # zpool set delegation=off users # zpool get delegation users NAME PROPERTY VALUE SOURCE users delegation off local |
Nell'impostazione predefinita, la proprietà delegation è abilitata.
Configurazione di dispositivi di logging separati in ZFS – Il log ZIL (ZFS intent log) soddisfa i requisiti POSIX per quanto riguarda le transazioni sincrone. Ad esempio, i database richiedono spesso che le transazioni giungano a dispositivi di storage stabili al ritorno da una chiamata di sistema. Per garantire la stabilità dei dati, NFS e altre applicazioni possono anche utilizzare fsync(). Nell'impostazione predefinita, il log ZIL viene allocato dai blocchi all'interno del pool di storage principale. Tuttavia, è possibile ottenere prestazioni migliori in Solaris 10 10/08 usando dispositivi ZIL separati nel pool di storage ZFS, ad esempio la NVRAM o un disco dedicato,
I dispositivi di logging per il log ZIL di ZFS non sono correlati ai file di log del database.
È possibile configurare un dispositivo di logging ZFS al momento della creazione del pool di memorizzazione o in un secondo momento. Per consultare alcuni esempi di configurazione dei dispositivi di log, vedere il manuale Solaris ZFS Administration Guide.
Creazione di set di dati intermedi in ZFS – A partire da Solaris 10 10/08, usando l'opzione -p con i comandi zfs create, zfs clone e zfs rename, è possibile creare rapidamente un set di dati intermedio ancora inesistente.
Ad esempio, è possibile creare set di dati ZFS (users/area51) nel pool di storage datab.
# zfs list NAME USED AVAIL REFER MOUNTPOINT datab 106K 16.5G 18K /datab # zfs create -p -o compression=on datab/users/area51 |
Se il set di dati intermedio è presente durante l'operazione di creazione, il processo si conclude correttamente.
Le proprietà specificate si applicano al set di dati di destinazione, non ai set di dati intermedi. Ad esempio:
# zfs get mountpoint,compression datab/users/area51 NAME PROPERTY VALUE SOURCE datab/users/area51 mountpoint /datab/users/area51 default datab/users/area51 compression on local |
Il set di dati intermedio viene creato con il punto di attivazione predefinito. Le eventuali proprietà aggiuntive vengono disabilitate per il set di dati intermedio. Ad esempio:
# zfs get mountpoint,compression datab/users NAME PROPERTY VALUE SOURCE datab/users mountpoint /datab/users default datab/users compression off default |
Per maggiori informazioni, vedere la pagina man zfs(1M).
Miglioramenti delle funzioni di inserimento a caldo per ZFS – A partire da Solaris 10 10/08, ZFS è in grado di rispondere più efficacemente agli eventi di rimozione dei dispositivi e dispone di un meccanismo per identificare automaticamente i dispositivi che vengono inseriti:
È possibile sostituire un dispositivo esistente con un dispositivo equivalente senza bisogno di utilizzare il comando zpool replace.
La proprietà autoreplace controlla la sostituzione automatica dei dispositivi. Se la proprietà è disabilitata (off), la sostituzione dei dispositivi deve essere eseguita dall'amministratore con il comando zpool replace. Se la proprietà è abilitata (on), qualunque nuovo dispositivo che si trovi nella stessa posizione fisica del dispositivo che apparteneva in precedenza al pool viene automaticamente formattato e sostituito. Il comportamento predefinito è off.
Il pool di storage viene posto in stato REMOVED quando un dispositivo o un disco di riserva viene rimosso fisicamente con il sistema in funzione. I dispositivi rimossi vengono sostituiti dai dischi di riserva (se disponibili).
Se un dispositivo viene rimosso e quindi inserito, viene posto online. Se era stato attivato un disco di riserva, quando il dispositivo viene reinserito e posto online il disco di riserva viene rimosso.
La rilevazione automatica dell'inserimento o della rimozione dei dispositivi dipende dall'hardware e può non essere supportata su alcune piattaforme. I dispositivi USB, ad esempio, vengono configurati automaticamente quando vengono inseriti. Può invece essere necessario usare il comando cfgadm -c configure per configurare un disco SATA.
I dischi di riserva vengono controllati periodicamente per verificare che siano online e disponibili.
Per maggiori informazioni, vedere la pagina man zpool(1M).
Rinomina ricorsiva degli snapshot ZFS (zfs rename -r) – A partire da Solaris 10 10/08 è possibile rinominare in modo ricorsivo tutti gli snapshot ZFS usando il comando zfs rename -r.
Ad esempio, eseguire uno snapshot di un insieme di file system ZFS.
# zfs snapshot -r users/home@today # zfs list NAME USED AVAIL REFER MOUNTPOINT users 216K 16.5G 20K /users users/home 76K 16.5G 22K /users/home users/home@today 0 - 22K - users/home/markm 18K 16.5G 18K /users/home/markm users/home/markm@today 0 - 18K - users/home/marks 18K 16.5G 18K /users/home/marks users/home/marks@today 0 - 18K - users/home/neil 18K 16.5G 18K /users/home/neil users/home/neil@today 0 - 18K - |
Quindi, rinominare gli snapshot il giorno successivo.
# zfs rename -r users/home@today @yesterday # zfs list NAME USED AVAIL REFER MOUNTPOINT users 216K 16.5G 20K /users users/home 76K 16.5G 22K /users/home users/home@yesterday 0 - 22K - users/home/markm 18K 16.5G 18K /users/home/markm users/home/markm@yesterday 0 - 18K - users/home/marks 18K 16.5G 18K /users/home/marks users/home/marks@yesterday 0 - 18K - users/home/neil 18K 16.5G 18K /users/home/neil users/home/neil@yesterday 0 - 18K - |
Gli snapshot sono i soli set di dati che possono essere rinominati in modo ricorsivo.
Compressione GZIP disponibile per ZFS – A partire da Solaris 10 10/08 è possibile impostare la compressione gzip sui file system ZFS oltre alla compressione lzjb. È possibile specificare questo tipo di compressione con gzip, l'impostazione predefinita, o gzip-N, dove N è un valore compreso tra 1 e 9. Ad esempio:
# zfs create -o compression=gzip users/home/snapshots # zfs get compression users/home/snapshots NAME PROPERTY VALUE SOURCE users/home/snapshots compression gzip local # zfs create -o compression=gzip-9 users/home/oldfiles # zfs get compression users/home/oldfiles NAME PROPERTY VALUE SOURCE users/home/oldfiles compression gzip-9 local |
Memorizzazione di più copie dei dati utente ZFS – Per migliorare l'affidabilità, i metadati dei file system ZFS vengono memorizzati automaticamente più volte, su diversi dischi, se possibile. Questa funzione è nota con la denominazione ditto blocks. A partire da Solaris 10 10/08, è possibile specificare che vengano anche memorizzate più copie dei dati utente per file system usando il comando zfs set copies. Ad esempio:
# zfs set copies=2 users/home # zfs get copies users/home NAME PROPERTY VALUE SOURCE users/home copies 2 local |
I valori disponibili sono 1, 2 o 3. Il valore predefinito è 1. Queste copie si aggiungono alle eventuali ridondanze a livello di pool, ad esempio quelle associate al mirroring o alle configurazioni RAID-Z.
Per maggiori informazioni sull'utilizzo di questa proprietà, vedere il manuale Solaris ZFS Administration Guide.
Le funzioni seguenti sono state introdotte in versioni precedenti del sistema operativo Solaris:
Cronologia dei comandi ZFS (zpool history) – In Solaris 10 8/07, ZFS registra automaticamente tutti i comandi zfs riusciti e i comandi zpool che modificano le informazioni di stato sul pool. Questa funzione consente all'utente o al personale di assistenza di Sun di identificare in modo esatto i comandi ZFS che sono stati eseguiti, in modo da risolvere le situazioni di errore.
Miglioramento delle informazioni sullo stato del pool di memorizzazione (zpool status) – In Solaris 10 8/07, è possibile utilizzare il comando zpool status -v per visualizzare un elenco dei file che riportano errori persistenti. In precedenza, era necessario ricorrere al comando find -inum per identificare i nomi dei file dall'elenco degli inode visualizzati.
Miglioramenti a ZFS e iSCSI per Solaris – In Solaris 10 8/07, è possibile creare un volume ZFS come dispositivo di destinazione iSCSI impostando la proprietà shareiscsi sul volume ZFS. Si tratta di un metodo comodo per configurare rapidamente una destinazione iSCSI Solaris. Ad esempio:
# zfs create -V 2g tank/volumes/v2 # zfs set shareiscsi=on tank/volumes/v2 # iscsitadm list target Target: tank/volumes/v2 iSCSI Name: iqn.1986-03.com.sun:02:984fe301-c412-ccc1-cc80-cf9a72aa062a Connections: 0 |
Una volta creata la destinazione iSCSI, impostare l'iniziatore iSCSI. Per informazioni sull'impostazione di un iniziatore iSCSI di Solaris, vedere il Capitolo 14, Configuring Solaris iSCSI Targets and Initiators (Tasks) in System Administration Guide: Devices and File Systems.
Per maggiori informazioni sulla gestione di un volume ZFS come destinazione iSCSI, vedere il manuale Solaris ZFS Administration Guide.
Miglioramenti della proprietà ZFS
Proprietà xattr di ZFS – In Solaris 10 8/07, è possibile usare la proprietà xattr per disabilitare o abilitare gli attributi estesi per uno specifico file system ZFS. L'impostazione predefinita è on.
Proprietà canmount di ZFS – In Solaris 10 8/07, è possibile usare la proprietà canmount per specificare se un set di dati può essere attivato usando il comando zfs mount.
Proprietà utente ZFS – In Solaris 10 8/07, ZFS supporta le proprietà utente, in aggiunta alle proprietà standard native che possono esportare le statistiche interne o controllare il comportamento del file system ZFS. Le proprietà utente non hanno effetto sul comportamento di ZFS, ma possono essere utilizzate per inserire nei set di dati informazioni significative per l'ambiente in cui sono utilizzati.
Impostazione delle proprietà nella fase di creazione dei file system ZFS – In Solaris 10 8/07, è possibile impostare le proprietà quando si crea un file system e non solo dopo che è stato creato.
I seguenti esempi illustrano la sintassi:
# zfs create tank/home # zfs set mountpoint=/export/zfs tank/home # zfs set sharenfs=on tank/home # zfs set compression=on tank/home |
In alternativa, impostare le proprietà quando viene creato il file system.
# zfs create -o mountpoint=/export/zfs -o sharenfs=on -o compression=on tank/home |
Visualizzazione di tutte le informazioni sul file system ZFS – In Solaris 10 8/07, è possibile usare varie forme del comando zfs get per visualizzare informazioni su tutti i set di dati. Nelle versioni precedenti, non era possibile ottenere informazioni su tutti i set di dati con il comando zfs get.
Ad esempio:
# zfs get -s local all tank/home atime off local tank/home/bonwick atime off local tank/home/marks quota 50G local |
Nuova opzione zfs receive -F – In Solaris 10 8/07, è possibile utilizzare la nuova opzione -F del comando zfs receive per forzare il rollback del file system allo snapshot più recente, prima di eseguire l'operazione di ricezione. L'utilizzo di questa opzione può rivelarsi necessario quando il file system è stato modificato nel periodo compreso tra l'esecuzione del rollback e quello in cui viene avviata l'operazione di ricezione.
Snapshot ZFS ricorsivi – In Solaris 10 11/06, è possibile utilizzare snapshot ricorsivi. Quando si utilizza il comando zfs snapshot per creare uno snapshot di file system, è possibile utilizzare l'opzione -r per creare snapshot in modo ricorsivo di tutti i file system sottostanti. In modo analogo, l'opzione -r elimina in modo ricorsivo tutti gli snapshot sottostanti quando si elimina lo snapshot di livello superiore.
RAID-Z con doppia parità (raidz2) – In Solaris 10 11/06, la configurazione RAID-Z replicata può utilizzare una parità singola o doppia, che consente rispettivamente di superare un errore su uno o due dispositivi senza alcuna perdita di dati. Per impostare una configurazione RAID-Z a parità doppia viene utilizzata la parola chiave raidz2. Per impostare la configurazione RAID-Z a parità singola è possibile utilizzare le parole chiave raidz o raidz1.
Dischi di riserva per i pool di memorizzazione ZFS – A partire da Solaris 10 11/06, la funzione dei dischi di riserva di ZFS consente di identificare i dischi che possono essere utilizzati per sostituire un dispositivo in stato “failed” o “fault” in uno o più pool di memorizzazione. Quando un dispositivo viene designato come disco di riserva e si verifica un errore in uno dei dispositivi attivi del pool, il disco designato sostituisce automaticamente quello difettoso. In alternativa, è possibile sostituire manualmente un dispositivo in un pool di memorizzazione con un disco di riserva.
Sostituzione di un file system ZFS con un clone ZFS (zfs promote) – In Solaris 10 11/06, il comando zfs promote consente di sostituire un file system ZFS esistente con un clone dello stesso file system. Questa possibilità risulta utile quando si ha la necessità di provare una versione alternativa di un file system e quindi renderla la versione attiva.
Miglioramenti a ZFS e alle zone – In Solaris 10 11/06, l'interazione tra ZFS e le zone è stata migliorata. Sui sistemi Solaris con zone installate è possibile usare la funzione zoneadm clone per copiare i dati da uno zonepath ZFS di origine a uno zonepath ZFS di destinazione. La funzione di clonazione ZFS non può essere utilizzata per clonare la zona non globale. A tale scopo, usare il comando zoneadm clone. Per maggiori informazioni, vedere il manuale System Administration Guide: Solaris Containers-Resource Management and Solaris Zones:
Aggiornamento dei pool di memorizzazione ZFS (zpool upgrade) – A partire da Solaris 10 6/06, è possibile aggiornare i pool di memorizzazione a una versione più recente per sfruttare le nuove funzionalità, usando il comando zpool upgrade. Inoltre, il comando zpool status è stato modificato in modo da segnalare i pool che eseguono versioni precedenti di ZFS.
Cancellazione degli errori dei dispositivi – A partire da Solaris 10 6/06, è possibile utilizzare il comando zpool clear per cancellare il conteggio degli errori associato a un dispositivo o a un pool. In precedenza, il conteggio degli errori veniva cancellato quando il dispositivo del pool veniva posto online con il comando zpool online.
Ripristino dei pool eliminati – In Solaris 10 6/06, il comando zpool import -D consente di ripristinare i pool che in precedenza erano stati eliminati con il comando zpool destroy.
Nuovo nome dei comandi backup e restore di ZFS – In Solaris 10 6/06, i comandi zfs backup e zfs restore sono stati rinominati in zfs send e zfs receive per descrivere in modo più preciso la loro funzione. La funzione dei comandi è di salvare e ripristinare le rappresentazioni del flusso di dati ZFS.
Formato di ACL NFSv4 compatto – A partire da Solaris 10 6/06, sono disponibili tre formati di ACL NFSv4: verbose, positional e compact. I nuovi formati di ACL compact e positional permettono di impostare e visualizzare gli ACL. Il comando chmod consente di impostare i tre formati di ACL. Utilizzare il comando ls -V per visualizzare i formati di ACL compact e positional. Utilizzare il comando ls -v per visualizzare il formato di ACL verbose.
Offline temporaneo di un dispositivo – A partire da Solaris 10 6/06, è possibile utilizzare il comando zpool offline -t per porre temporaneamente offline un dispositivo. Al riavvio del sistema, il dispositivo viene riportato automaticamente allo stato ONLINE.
Integrazione di ZFS con Fault Manager – A partire da Solaris 10 6/06, è presente un motore diagnostico per ZFS in grado di diagnosticare e indicare i guasti dei pool e dei dispositivi. Vengono riportati anche gli errori di checksum, di I/O e dei dispositivi associati a guasti dei pool o dei dispositivi. Le informazioni diagnostiche sugli errori vengono visualizzate sulla console e registrate nel file /var/adm/messages. È inoltre possibile visualizzare informazioni dettagliate sulle attività di ripristino dalla condizione di errore riportata usando il comando zpool status.
Per maggiori informazioni su questi miglioramenti, vedere il manuale Solaris ZFS Administration Guide.
Vedere le sezioni successive per informazioni legate a ZFS: