In Solaris 10 08/08 wurden die folgenden Leistungsmerkmale und Verbesserungen für die Systemverwaltung implementiert.
Im folgenden Abschnitt sind die neuen Leistungsmerkmale des ZFS-Dateisystems zusammengefasst. Weitere Informationen zu diesen neuen Features finden Sie im Solaris ZFS - Administrationshandbuch.
Unterstützung für Installation und Booten mit ZFS – Ab Release Solaris 10 08/08 können Sie ein ZFS-Root-Dateisystem installieren und booten. ZFS-Root-Dateisysteme können mithilfe der Neuinstallationsoption oder mit JumpStart installiert werden. Sie können ein UFS-Root-Dateisystem mithilfe von Solaris Live Upgrade Zonen auf ein ZFS-Root-Dateisystem migrieren. Darüber hinaus unterstützt ZFS jetzt Swap- und Speicherabzugsbereiche.
Rollback eines ZFS-Datasets ohne Aushängen – Ab Release Solaris 10 08/08 können Sie für ein Dataset ein Rollback durchführen, ohne dass er zuvor ausgehängt werden muss. Das bedeutet, dass die Option zfs rollback -f zum Erzwingen des Aushängens nicht mehr gebraucht wird. Die Option -f wird nicht mehr unterstützt und wird ignoriert, wenn sie angegeben wird.
Erweiterungen des Befehls „zfs send“ – In Release Solaris 10 08/08 wurde der Befehl zfs send wie folgt erweitert:
Sie können jetzt alle inkrementellen Streams von einem Snapshot zu einem kumulativen Snapshot senden. Beispiel:
# zfs list NAME USED AVAIL REFER MOUNTPOINT pool 428K 16.5G 20K /pool pool/fs 71K 16.5G 21K /pool/fs pool/fs@snapA 16K - 18.5K - pool/fs@snapB 17K - 20K - pool/fs@snapC 17K - 20.5K - pool/fs@snapD 0 - 21K - # zfs send -I pool/fs@snapA pool/fs@snapD > /snaps/fs@combo |
Diese Syntax zeigt, wie alle inkrementellen Snapshots zwischen fs@snapA und fs@snapD nach fs@combo gesendet werden.
Sie können einen inkrementellen Stream vom ursprünglichen Snapshot senden, um einen Klon zu erstellen. Der ursprüngliche Snapshot muss auf der Empfangsseite bereits vorhanden sein, damit der inkrementelle Stream angenommen werden kann. Beispiel:
# zfs send -I pool/fs@snap1 pool/clone@snapA > /snaps/fsclonesnap-I . . # zfs receive -F pool/clone < /snaps/fsclonesnap-I |
Sie können einen Replikationsstream aller abhängigen Dateisysteme zu den benannten Snapshots senden. Nach dem Empfang werden alle Eigenschaften, Snapshots, abhängigen Dateisysteme und Klone beibehalten. Beispiel:
# zfs send -R pool/fs@snap > snaps/fs-R |
Sie können einen inkrementellen Replikationsstream senden.
zfs send -R -[iI] @snapA pool/fs@snapD |
Ausführlichere Beispiele finden Sie in Solaris ZFS - Administrationshandbuch.
ZFS-Kontingente und Reservierungen nur für Dateisystemdaten – Ab Release Solaris 10 08/08 sind Dataset-Kontingente und -Reservierungen verfügbar, in deren Speicherplatzbelegung keine untergeordneten Objekte wie Snapshots und Klone angegeben werden. Die existierenden ZFS-Kontingente und -Reservierungen bleiben gegenüber früheren Solaris-Releases unverändert.
Die Eigenschaft refquota beschränkt den Speicherplatz, den ein Dataset belegen kann. Sie erzwingt einen absoluten Grenzwert des belegbaren Speicherplatzes. Dieser absolute Grenzwert berücksichtigt jedoch nicht den von abhängigen Entitäten wie z. Snapshots oder Klonen belegten Speicherplatz.
Die Eigenschaft refreservation legt den für einen Dataset minimal garantierten Speicherplatz (ohne Speicherplatz für abhängige Entitäten) fest.
So können Sie beispielsweise in refquota für studentA einen Wert von 10 GB festlegen, der für den von diesem Benutzer belegten Speicherplatz einen absoluten Grenzwert von 10 GB festlegt. Zum Erreichen einer zusätzlichen Flexibilität können Sie ein 20 GB-Kontingent einstellen, mit dessen Hilfe Sie die Snapshots von studentA verwalten können.
# zfs set refquota=10g tank/studentA # zfs set quota=20g tank/studentA |
Eigenschaften von ZFS-Speicherpools – In Release Solaris 10 08/08 sind neue Informationen zu Eigenschaften von ZFS-Speicherpools verfügbar.
Anzeigen aller Pool-Attribute – Mit dem Befehl zpool get all pool können Sie sich alle Informationen zu Pool-Eigenschaften anzeigen lassen. Beispiel:
# zpool get all users NAME PROPERTY VALUE SOURCE users size 16.8G - users used 194K - users available 16.7G - users capacity 0% - users altroot - default users health ONLINE - users guid 14526624140147884971 - users version 10 default users bootfs - default users delegation on default users autoreplace off default users cachefile - default users failmode wait default |
Eigenschaft cachefile – Diese Version enthält die neue Eigenschaft cachefile die festlegt, wo Informationen zur Poolkonfiguration im Cache-Speicher abgelegt werden. Alle Pools im Cache werden beim Booten des Systems automatisch importiert. Es kann jedoch sein, dass Installations- und Cluster-Umgebungen diese Informationen an verschiedenen Stellen im Cache-Speicher ablegen müssen, sodass Pools nicht automatisch importiert werden.
Sie können diese Eigenschaft so einstellen, dass Poolkonfigurationen an einer anderen Stelle im Cache-Speicher abgelegt werden und später mithilfe des Befehls zpool import -c importiert werden können. Für die meisten ZFS-Konfigurationen wird diese Eigenschaft nicht verwendet.
Die Eigenschaft cachefile ist nicht beständig und wird nicht auf Festplatte gespeichert. Diese Eigenschaft löst die Eigenschaft temporary ab, die in früheren Solaris-Versionen anzeigte, dass Poolinformationen nicht im Cache gespeichert werden sollten.
Eigenschaft failmode property – Diese Version enthält die Eigenschaft failmode, mit der festgelegt wird, wie sich das System im Falle eines äußerst schwerwiegenden·Poolausfalls aufgrund von Unterbrechungen in der Gerätekonnektivität bzw. dem gleichzeitigen Ausfall aller Speichergeräte im Pool verhalten soll. Die Eigenschaft failmode kann auf die Werte wait, continue oder panic gesetzt werden. Der Standardwert ist wait. Dies bedeutet, dass Sie das ausgefallene Gerät neu in das Pool integrieren oder auswechseln und den Fehler danach mit dem Befehl zpool clear löschen müssen.
Die Eigenschaft failmode wird wie andere einstellbare ZFS-Eigenschaften auch gesetzt. Dies kann vor oder nach dem Erstellen eines Pools geschehen. Beispiel:
# zpool set failmode=continue tank # zpool get failmode tank NAME PROPERTY VALUE SOURCE tank failmode continue local |
# zpool create -o failmode=continue users mirror c0t1d0 c1t1d0 |
Verbesserungen an der ZFS-Befehlschronik ( zpool history) – Ab Release Solaris 10 08/08 bietet der Befehl zpool history die folgenden neuen Leistungsmerkmale:
Es werden Informationen zu Ereignissen im ZFS-Dateisystem angezeigt. Beispiel:
# zpool history users History for 'users': 2008-07-10.09:43:05 zpool create users mirror c1t1d0 c1t2d0 2008-07-10.09:43:48 zfs create users/home 2008-07-10.09:43:56 zfs create users/home/markm 2008-07-10.09:44:02 zfs create users/home/marks 2008-07-10.09:44:19 zfs snapshot -r users/home@yesterday |
Die Option -l zum Anzeigen von Informationen im ausführlichen Format, das Benutzename, Hostname sowie die Zone, in der die betreffende Operation ausgeführt wurde, anzeigt. Beispiel:
# zpool history -l users History for 'users': 2008-07-10.09:43:05 zpool create users mirror c1t1d0 c1t2d0 [user root on corona:global] 2008-07-10.09:43:13 zfs create users/marks [user root on corona:global] 2008-07-10.09:43:44 zfs destroy users/marks [user root on corona:global] 2008-07-10.09:43:48 zfs create users/home [user root on corona:global] 2008-07-10.09:43:56 zfs create users/home/markm [user root on corona:global] 2008-07-10.09:44:02 zfs create users/home/marks [user root on corona:global] 2008-07-11.10:44:19 zfs snapshot -r users/home@yesterday [user root on corona:global] |
Die Option -i zum Anzeigen von Informationen zu internen Ereignissen. Diese sind für diagnostische Zwecke nutzbar. Beispiel:
# zpool history -i users History for 'users': 2008-07-10.09:43:05 zpool create users mirror c1t1d0 c1t2d0 2008-07-10.09:43:13 [internal create txg:6] dataset = 21 2008-07-10.09:43:13 zfs create users/marks 2008-07-10.09:43:48 [internal create txg:12] dataset = 27 2008-07-10.09:43:48 zfs create users/home 2008-07-10.09:43:55 [internal create txg:14] dataset = 33 2008-07-10.09:43:56 zfs create users/home/markm 2008-07-10.09:44:02 [internal create txg:16] dataset = 39 2008-07-10.09:44:02 zfs create users/home/marks 2008-07-10.09:44:19 [internal snapshot txg:21] dataset = 42 2008-07-10.09:44:19 [internal snapshot txg:21] dataset = 44 2008-07-10.09:44:19 [internal snapshot txg:21] dataset = 46 2008-07-10.09:44:19 zfs snapshot -r users/home@yesterday |
Aktualisieren von ZFS-Dateisystemen ( zfs upgrade) – Ab Release Solaris 10 08/08 können Sie mithilfe des Befehls zfs upgrade vorhandene ZFS-Dateisysteme um neue Dateisystemfunktionen erweitern. ZFS-Speicherpools besitzen eine ähnliche Upgrade-Funktion, um vorhandene Speicherpools um neue Funktionalität zu erweitern.
Beispiel:
# zfs upgrade This system is currently running ZFS filesystem version 2. The following filesystems are out of date, and can be upgraded. After being upgraded, these filesystems (and any 'zfs send' streams generated from subsequent snapshots) will no longer be accessible by older software versions. VER FILESYSTEM --- ------------ 1 datab 1 datab/users 1 datab/users/area51 |
Dateisysteme, die aktualisiert wurden sowie alle aus diesen aktualisierten Dateisystemen mithilfe des Befehls zfs send generierten Streams sind auf Systemen, auf denen ältere Software-Releases installiert sind, nicht zugänglich.
Delegierte ZFS-Administration – Ab Release Solaris 10 08/08 können Sie fein abgestimmte Zugriffsrechte an Benutzer ohne entsprechene Zugriffsrechte delegieren, damit diese ZFS-Administrationsaufgaben ausführen können.
Zum Gewähren und Verweigern von Zugriffsrechten dienen die Befehle zfs allow und zfs unallow.
Mit der Speicherpool-Eigenschaft delegation kann die delegierte Administration aktiviert und deaktiviert werden. Beispiel:
# zpool get delegation users NAME PROPERTY VALUE SOURCE users delegation on default # zpool set delegation=off users # zpool get delegation users NAME PROPERTY VALUE SOURCE users delegation off local |
Standardmäßig ist die Eigenschaft delegation aktiviert.
Einrichten getrennter ZFS-Protokollgeräte – Das ZFS Intent Log (ZIL) erfüllt POSIX-Voraussetzungen für synchrone Transaktionen. So setzen Datenbanken bei der Rückkehr von Systemaufrufen beispielsweise oft voraus, dass Transaktionen auf stabilen Speichergeräten stattfinden. NFS und andere Anwendungen können zur Gewährleistung der Datenstabilität ebenfalls fsync() verwenden. Standardmäßig wird das ZIL aus Blöcken innerhalb des Hauptspeicherpools zugewiesen. Durch Verwendung getrennter ZIL-Geräte im ZFS-Speicherpool wie z. B. NVRAM oder einer speziell dafür vorgesehenen Festplatte kann jedoch in Solaris 10 08/08 eine höhere Leistung erreicht werden.
Protokolliergeräte für ZIL sind etwas Anderes als Datenbankprotokolldateien.
Sie können ZFS-Protokolliergeräte während oder nach dem Erstellen eines Speicherpools einrichten. Beispiele zum Einrichten von Protokolliergeräten finden Sie in Solaris ZFS - Administrationshandbuch.
Erstellen intermediärer ZFS-Datasets – Ab Release Solaris 10 08/08 können Sie mithilfe der Option -p mit den Befehlen zfs create, zfs clone und zfs rename schnell einen intermediären Dataset erstellen, falls er noch nicht vorhanden ist.
So können Sie beispielsweise ZFS-Datasets (users/area51) im Speicherpool datab erstellen.
# zfs list NAME USED AVAIL REFER MOUNTPOINT datab 106K 16.5G 18K /datab # zfs create -p -o compression=on datab/users/area51 |
Wenn während des Erstellungsvorgangs bereits ein intermediärer Dataset vorhanden ist, wird er ohne Fehlermeldung abgeschlossen.
Angegebene Eigenschaften gelten für den Ziel-Dataset und nicht für die intermediären Datasets. Beispiel:
# zfs get mountpoint,compression datab/users/area51 NAME PROPERTY VALUE SOURCE datab/users/area51 mountpoint /datab/users/area51 default datab/users/area51 compression on local |
Es wird ein intermediärer Dataset mit Standard-Einhängepunkt erstellt. Alle zusätzlichen Eigenschaften werden für diesen intermediären Dataset deaktiviert. Beispiel:
# zfs get mountpoint,compression datab/users NAME PROPERTY VALUE SOURCE datab/users mountpoint /datab/users default datab/users compression off default |
Weitere Informationen finden Sie in der Manpage zfs(1M).
Verbesserungen am ZFS-Hotplugging – Ab Release Solaris 10 08/08 reagiert ZFS besser·auf entfernte Speichergeräte und besitzt einen Mechanismus zum automatischen Identifizieren von Speichergeräten, die in das System eingefügt wurden:
Sie können ein Speichergerät durch ein anderes auswechseln, ohne dafür den Befehl zpool replace eingeben zu müssen.
Die Eigenschaft autoreplace legt die Charakteristika des automatischen Erkennens ausgewechselter Geräte fest. Wenn diese Eigenschaft auf off gesetzt ist, muss das Auswechseln von Speichergeräten vom Administrator mithilfe des Befehls zpool replace initiiert werden. Wenn diese Eigenschaft auf on gesetzt ist, wird das neue Speichergerät an der physischen Adresse des vorherigen Speichergeräts im Pool automatisch formatiert und in das Pool eingebunden. Das Standardverhalten ist off
Für die physische Entfernung eines Speichergeräts bzw. Hot-Spares bei laufendem System gibt es jetzt den Speicherpoolstatus REMOVED. Falls verfügbar, wird ein Hot-Spare für das entfernte Speichergerät in das Pool eingebunden.
Wenn ein Speichergerät entfernt und danach wieder eingesetzt wird, wird es online geschaltet. Wenn für das entfernte Speichergerät ein Hot-Spare eingebunden wurde, wird dieses bei Abschluss der Online-Schaltung wieder entfernt.
Das automatische Erkennen entfernter und hinzugefügter Speichergeräte ist hardwareabhängig und wird nicht von allen Plattformen unterstützt. So werden USB-Speichergeräte beispielsweise beim Einfügen automatisch konfiguriert. Bei SATA-Datenträgern kann es jedoch sein, dass Sie diese mithilfe des Befehls cfgadm -c configure konfigurieren müssen.
Hot-Spares werden regelmäßig überprüft, um sicherzustellen, dass sie online und verfügbar sind.
Weitere Informationen entnehmen Sie bitte der Man Page zpool(1M).
Rekursive Umbenennung von ZFS-Snapshots ( zfs rename -r) – Ab Release Solaris 10 08/08 können Sie alle untergeordneten ZFS-Snapshots mithilfe des Befehls zfs rename -r rekursiv umbenennen.
Erstellen Sie z. B. einen Snapshot von einer Reihe von ZFS-Dateisystemen.
# zfs snapshot -r users/home@today # zfs list NAME USED AVAIL REFER MOUNTPOINT users 216K 16.5G 20K /users users/home 76K 16.5G 22K /users/home users/home@today 0 - 22K - users/home/markm 18K 16.5G 18K /users/home/markm users/home/markm@today 0 - 18K - users/home/marks 18K 16.5G 18K /users/home/marks users/home/marks@today 0 - 18K - users/home/neil 18K 16.5G 18K /users/home/neil users/home/neil@today 0 - 18K - |
Dann können Sie die Snapshots am nächsten Tag umbenennen.
# zfs rename -r users/home@today @yesterday # zfs list NAME USED AVAIL REFER MOUNTPOINT users 216K 16.5G 20K /users users/home 76K 16.5G 22K /users/home users/home@yesterday 0 - 22K - users/home/markm 18K 16.5G 18K /users/home/markm users/home/markm@yesterday 0 - 18K - users/home/marks 18K 16.5G 18K /users/home/marks users/home/marks@yesterday 0 - 18K - users/home/neil 18K 16.5G 18K /users/home/neil users/home/neil@yesterday 0 - 18K - |
Snapshots sind die einzigen Datasets, die rekursiv umbenannt werden können.
GZIP-Komprimierung jetzt für ZFS verfügbar – Ab Release Solaris 10 08/08 können ZFS-Dateisysteme neben der lzjb-Komprimierung auch mit gzip komprimiert werden. Sie können festlegen, dass die Komprimierung vom Typ gzip (Standardeinstellung) sein soll oder vom Typ gzip-N, wobei N den Wert 1 bis 9 haben kann. Beispiel:
# zfs create -o compression=gzip users/home/snapshots # zfs get compression users/home/snapshots NAME PROPERTY VALUE SOURCE users/home/snapshots compression gzip local # zfs create -o compression=gzip-9 users/home/oldfiles # zfs get compression users/home/oldfiles NAME PROPERTY VALUE SOURCE users/home/oldfiles compression gzip-9 local |
Speichern mehrerer Kopien von ZFS-Benutzerdaten – Zur Erhöhung der Zuverlässigkeit speichern ZFS-Dateisysteme Metadaten automatisch auf mehreren Festplatten. Dies wird als ditto blocks bezeichnet. Ab Release Solaris 10 08/08 können Sie über den Befehl zfs set copies festlegen, dass mehrere Kopien der Benutzerdaten auch pro Dateisystem gespeichert werden sollen. Beispiel:
# zfs set copies=2 users/home # zfs get copies users/home NAME PROPERTY VALUE SOURCE users/home copies 2 local |
Verfügbare Werte sind 1, 2 oder 3. Der Standardwert ist 1. Diese Kopien werden zusätzlich zu den von Redundanzfunktionen (Datenspiegelung bzw. RAID-Z) auf Pool-Ebene angelegten Sicherungskopien erstellt.
Weitere Informationen zur Verwendung dieser Eigenschaft finden Sie im Solaris ZFS - Administrationshandbuch.
Die folgenden Leistungemerkmale wurden in früheren Versionen des Betriebssystems Solaris eingeführt:
ZFS-Befehlsspeicher ( zpool history): Ab Solaris 10 8/07 protokolliert ZFS automatisch zfs- und zpool-Befehle, durch die Pool-Zustandsinformationen geändert werden. Dank dieses Leistungsmerkmals können Sie oder Sun-Supportmitarbeiter genau feststellen, welche ZFS-Befehle bei der Behebung eines Fehlers ausgeführt wurden.
Verbesserte Statusinformationen des Speicherpools ( zpool status): Ab Solaris 10 8/07 können Sie mit dem Befehl zpool status -v eine Liste der Dateien mit beständigen Fehlern anzeigen. Bisher mussten die Dateinamen mit Hilfe des Befehls find -inum anhand der Liste der angezeigten Knoten ermittelt werden.
Verbesserungen von ZFS und Solaris iSCSI: Ab Solaris 10 8/07 können Sie durch Setzen der Eigenschaft shareiscsi im ZFS-Volume ein ZFS-Volume als ein Solaris iSCSI-Zielgerät erstellen. Mithilfe dieses Verfahrens können Solaris iSCSI-Zielgeräte schnell eingerichtet werden. Beispiel:
# zfs create -V 2g tank/volumes/v2 # zfs set shareiscsi=on tank/volumes/v2 # iscsitadm list target Target: tank/volumes/v2 iSCSI Name: iqn.1986-03.com.sun:02:984fe301-c412-ccc1-cc80-cf9a72aa062a Connections: 0 |
Nach dem Erstellen des iSCSI-Zielgeräts muss der iSCSI-Initiator definiert werden. Informationen zur Einrichtung eines Solaris iSCSI-Initiators finden Sie in Kapitel 14, Configuring Solaris iSCSI Targets and Initiators (Tasks) in System Administration Guide: Devices and File Systems.
Weitere Informationen zum Verwalten eines ZFS-Volume als ein iSCSI-Ziel finden Sie im Solaris ZFS - Administrationshandbuch.
Verbesserungen der ZFS-Eigenschaften
ZFS-Eigenschaft xattr: Ab Solaris 10 8/07 können Sie mit der Eigenschaft xattr für ein bestimmtes ZFS-Dateisystem erweiterte Attribute deaktivieren oder aktivieren. Der Standardwert ist on.
ZFS-Eigenschaft canmount: Ab Solaris 10 8/07 können Sie über die Eigenschaft canmount festlegen, ob ein Datensatz über den Befehl zfs mount eingliederbar sein soll.
ZFS-Benutzereigenschaften: Ab Solaris 10 8/07 unterstützt ZFS neben den nativen Standardeigenschaften Benutzeigenschaften, über die entweder interne Statistiken exportiert oder das Verhalten von ZFS-Dateisystemen gesteuert werden kann. Benutzerdefinierte Eigenschaften wirken sich nicht auf das ZFS-Verhalten aus, können jedoch zum Versehen von Datasets mit Informationen, die für Ihre lokalen Gegebenheiten wichtig sind, verwendet werden.
Setzen von Eigenschaften beim Erstellen von ZFS-Dateisystemen: Ab Solaris 10 8/07 können Sie neben dem Setzen von Eigenschaften nach der Erstellung eines Dateisystems die Eigenschaften auch beim Erstellen eines Dateisystems festlegen.
Die folgenden Beispiele zeigen die entsprechende Syntax:
# zfs create tank/home # zfs set mountpoint=/export/zfs tank/home # zfs set sharenfs=on tank/home # zfs set compression=on tank/home |
Sie können die Eigenschaften auch setzen, wenn das Dateisystem erstellt wird.
# zfs create -o mountpoint=/export/zfs -o sharenfs=on -o compression=on tank/home |
Anzeigen aller Informationen des ZFS-Dateisystems: Um für den Fall, dass kein spezieller Datensatz angegeben ist, die Informationen aller Datensätze anzuzeigen, stehen ab Solaris 10 8/07 verschiedene Formen des Befehls zfs get zur Verfügung. Bisher war es nicht möglich, mit dem Befehl zfs get Informationen aller Datensätze anzuzeigen.
Beispiel:
# zfs get -s local all tank/home atime off local tank/home/bonwick atime off local tank/home/marks quota 50G local |
Neue ZFS-Empfangsoption -F: Ab Solaris 10 8/07 können Sie die neue Option -F für den Befehl zfs receive verwenden, um das Dateisystem vor dem Empfang auf den letzten Snapshot zurückzusetzen. Die Verwendung dieser Option kann erforderlich werden, wenn das Dateisystem zwischen dem Zeitpunkt des Rollbacks und des Beginns der receive-Operation geändert wurde.
Rekursive ZFS-Snapshots – In Solaris 10 11/06 sind rekursive Snapshots verfügbar. Wenn Sie zum Erstellen eines Dateisystem-Snapshot den Befehl zfs snapshot verwenden, können Sie durch die Verwendung der Option -r erreichen, dass für alle untergeordneten Dateisysteme rekursiv Snapshots erstellt werden. Darüber hinaus werden bei der Löschung eines Snapshots mit der Option - r alle nachfolgenden Snapshots rekursiv gelöscht.
RAID-Z mit doppelter Parität ( raidz2): Replizierte RAID-Z-Konfigurationen können in·Solaris 10 11/06 einfache oder doppelte Parität besitzen. Das bedeutet, dass in einem System bis zu zwei Geräteausfälle ohne Datenverlust möglich sind. Eine RAID-Z-Konfiguration doppelter Parität kann mithilfe des Schlüsselworts raidz2 angegeben werden. Entsprechend können Sie für eine RAID-Z-Konfiguration mit einfacher Parität eines der Schlüsselwörter raidz oder raidz1 angeben.
Hot-Spares für ZFS-Speicher-Pools: Mithilfe der Hot-Spare-Funktion können Sie ab Solaris 10 11/06 Datenträger ermitteln, die zum Ersetzen eines ausgefallenen bzw. fehlerhaften Geräts in einem bzw. mehreren Speicherpools verwendet werden können. Das Vorsehen eines Datenträgers als Hot-Spare-Gerät bedeutet, das bei Ausfall eines aktiven Datenträgers im Pool das Hot-Spare-Gerät diesen automatisch ersetzt. Alternativ dazu können Sie Datenträger in einem Speicher-Pool auch manuell durch ein Hot-Spare-Gerät ersetzen.
Ersetzen eines ZFS-Dateisystems durch einen ZFS-Klon (zfs promote) – Ab Solaris 10 11/06 können Sie mithilfe des Befehls zfs promote ein vorhandenes ZFS-Dateisystem durch einen Klon dieses Dateisystems ersetzen. Diese Funktion ist hilfreich, wenn Sie an verschiedenen Versionen eines Dateisystems Tests ausführen wollen und danach eine alternative Version des Dateisystems zum aktiven Dateisystem machen wollen.
ZFS- und Zonenverbesserungen: In·Solaris 10 11/06 wurde die ZFS- und Zoneninteraktion verbessert. Auf einem Solaris-System mit installierten Zonen können Sie mit zoneadm clone die Daten aus einem vorhandenen ZFS-zonepath-Quellverzeichnis in ein ZFS-zonepath-Zielverzeichnis auf dem System kopieren. Nicht-globale Zonen können mit der ZFS-Klonfunktion nicht geklont werden. Hierzu müssen Sie den Befehl zoneadm clone verwenden. Weitere Informationen dazu finden Sie unter Systemverwaltungshandbuch: Solaris Container – Ressourcenverwaltung und Solaris Zones.
Aktualisierung von ZFS-Speicher-Pools ( zpool upgrade): Ab Solaris 10 6/06 können Sie die Speicher-Pools mit dem Befehl zpool upgrade auf eine neuere Version aktualisieren, um die neuesten Funktionen nutzen zu können. Darüber hinaus wurde der Befehl zpool status so geändert, dass Sie jetzt darauf hingewiesen werden, wenn Pools mit älteren Versionen laufen.
Zurücksetzen von Gerätefehlern: Mit dem Befehl zpool clear lassen sich ab Solaris 10 6/06 Fehlerzähler für ein Gerät oder den Pool zurücksetzen. In früheren Versionen wurden Fehlerzähler bei der Wiederinbetriebnahme eines Datenträgers im Pool mithilfe des Befehls zpool online zurückgesetzt.
Wiederherstellung gelöschter Pools – Ab Solaris 10 6/06 können Sie mithilfe des Befehls zpool import - D Pools wiederherstellen, die vorher mit dem Befehl zpool destroy gelöscht wurden.
ZFS-Befehle zum Erstellen von Sicherungskopien und zur Wiederherstellung wurden umbenannt – Ab Solaris 10 6/06 wurden die Befehle zfs backup und zfs restore zur genaueren Funktionsbeschreibung in zfs send und zfs receive umbenannt. Die Aufgabe dieser Befehle besteht im Sichern und Wiederherstellen von Instanzen von ZFS-Datenstreams.
compact-Format für NFSv4-Zugriffslisten – Ab Solaris 10 6/06 sind drei NFSv4-Zugriffslistenformate verfügbar: ausführlich, positional und kompakt. Mit den neuen kompakten und positionalen Zugriffssteuerungslistenformaten können Zugriffssteuerungslisten gesetzt und angezeigt werden. Mit dem Befehl chmod können Sie alle drei Zugriffssteuerungslistenformate setzen. Mit der Option ls -V können Sie kompakte und positionale Zugriffsteuerungslistenformate anzeigen. Mit der Option ls -v können Sie kompakte und ausführliche·Zugriffsteuerungslistenformate anzeigen.
Zeitweiliges Außerbetriebnehmen von Speichergeräten – Ab Solaris 10 6/06 können Sie mithilfe des Befehls zpool offline -t Speichergeräte zeitweilig außer Betrieb nehmen. Nach einem Systemneustart wird das betreffende Speichergerät wieder in den Status ONLINE geschaltet.
ZFS ist mit Fault Manager integriert – Ab Solaris 10 6/06 wird ein ZFS-Diagnoseprogramm mitgeliefert, mit dem Ausfälle von Pools und Speichergeräten erkannt und gemeldet werden. Darüber hinaus werden auch Prüfsummen-, E/A- und Gerätefehler gemeldet, die aufgrund von Pool- und Geräteausfällen auftreten. Diagnose- und Fehlerinformationen werden auf die Konsole und in die Datei /var/adm/messages geschrieben. Darüber hinaus können mithilfe des Befehls zpool status ausführliche Iinformationen zur Systemwiederherstellung nach einem gemeldeten Fehler angezeigt werden.
Weitere Informationen zu diesen Verbesserungen und Änderungen entnehmen Sie bitte dem Dokument Solaris ZFS - Administrationshandbuch.
Informationen zu verwandten ZFS-Leistungsmerkmalen finden Sie in den folgenden Abschnitten über Neuerungen.
Die folgenden Solaris-Installationsprogramme wurden in Release Solaris 10 08/08 erweitert und unterstützen jetzt ZFS-Dateisysteme:
Das interaktive textbasierte Solaris-Installationsprogramm kann jetzt UFS- oder ZFS-Root-Dateisysteme installieren. In Release Solaris 10 08/08 wird standardmäßig ein UFS-Dateisystem installiert.
Bei der benutzerdefinierten JumpStart-Installation können Sie ein Profil zum Erstellen eines ZFS-Speicherpools anlegen und ein bootfähiges ZFS-Dateisystem vorsehen.
Mithilfe von SolarisTM Live Upgrade können Sie ein UFS-Root-Dateisystem auf ein UFS-Root-Dateisystem migrieren. Die Befehle lucreate und luactivate wurden erweitert und unterstützen jetzt ZFS-Pools und -Dateisysteme. Die Befehle lustatus und ludelete funktionieren wie in früheren Solaris-Versionen.
Sie können auch ein gespiegeltes ZFS-Root-Pool einrichten, indem Sie während der Installation zwei Festplatten auswählen. Als Alternative dazu können Sie nach der Installation zusätzliche Festplatten hinzufügen bzw. anhängen, um ein gespiegeltes ZFS-Root-Pool zu erstellen.
Sie können automatisch Swap- und Speicherabzugsbereiche auf ZFS-Volumes im ZFS-Root-Pool erstellen lassen.
Weitere Informationen finden Sie im Solaris ZFS - Administrationshandbuch.
Für frühere Solaris 10-Versionen gelten bei Solaris-Installationsprogrammen folgende Einschränkungen für die Unterstützung von ZFS-Dateisystemen:
Benutzerdefinierte JumpStart-Installation - ZFS-Dateisysteme können nicht in Jumpstart-Profile aufgenommen werden. Sie können jedoch von einem ZFS-Datenspeicherpool aus die folgenden Skripten ausführen, um einen Installationsserver bzw. Installationsclient einzurichten:
setup_install_server
add_install_server
add_install_client
Live Upgrade - Behält die ursprüngliche Boot-Umgebung bei und übernimmt die ZFS-Datenspeicherpools in die neue Umgebung. Gegenwärtig kann ZFS nicht als bootfähiges Root-Dateisystem verwendet werden. Deswegen werden vorhandene ZFS-Dateisystem nicht in die Boot-Umgebung kopiert.
Solaris-Erstinstallation - ZFS-Dateisysteme werden bei einer Erstinstallation nicht erkannt. Wenn Sie jedoch Festplatten, die ZFS-Datenspeicherpools enthalten, für die Installation nicht angeben, können Sie diese Datenspeicherpools nach der Installation mithilfe des Befehls zpool import wiederherstellen. Weitere Informationen entnehmen Sie bitte der Man Page zpool(1M).
Wie bei den meisten Neuinstallationsszenarien sollten Sie von Ihren ZFS-Dateien zunächst Sicherungskopien anlegen, bevor Sie mit der Erstinstallation beginnen.
Solaris Upgrade – ZFS-Dateisysteme und -Datenspeicherpools werden beibehalten.
SunVTSTM 7.0 Patch Set 3 besitzt·ein herkömmliches dreischichtiges Architekturmodell mit browserbasierter Benutzeroberfläche, JavaTM-basiertem Middle-Server und einem Diagnoseagent. An SunVTS Patch Set 3 wurden die folgenden Verbesserungen vorgenommen:
Festplatten- und Netzwerktests bieten Aktivierungs- und Deaktivierungsmöglichkeiten.
Die browserbasierte Benutzeroberfläche sowie die TTY-Benutzerschnittstelle bieten Unterstützung für Kontrollkästchen bei den logischen Testoptionen (LT).
fputest und Cache-Tests wurden für x86-Plattformen erweitert.
disktest wurde erweitert und führt auf Dateisystempartitionen keine Schreibtests aus.
Weitere Informationen zu SunVTS finden Sie unter http://docs.sun.com/app/docs/prod/test.validate.
Ab Release Solaris 10 08/08 zeigen DTrace lockstat-Probes, die die Spin-Anzahl anzeigten, die Spin-Zeit jetzt in Nanosekunden an. Die Schnittstelle des lockstat-Providers und die Optionen des Befehls lockstat haben sich nicht geändert.