Dieses Dokument enthält einen Überblick über alle neuen bzw. überarbeiteten Leistungsmerkmale in Solaris 10 gegenüber der im Mai 2002 erstmalig veröffentlichten Version Solaris 9. Dieses Kapitel enthält einen Überblick über die neuen Leistungsmerkmale des aktuellen Release Solaris 10 08/08. Kapitel 2Neuerungen im Release Solaris 10 5/08 gibt einen Überblick über neue Leistungsmerkmale im vorigen Release Solaris 10 5/08. Kapitel 3Neuerungen in Solaris 10 8/07 gibt einen Überblick über neue Leistungsmerkmale im Release Solaris 10 8/07. Kapitel 4Neuerungen im Release Solaris 10 11/06 gibt einen Überblick über neue Leistungsmerkmale im Solaris-Release 10 11/06. Kapitel 5Neuerungen im Release Solaris 10 6/06 gibt einen Überblick über neue Leistungsmerkmale im Solaris-Release 10 6/06. Kapitel 6Neuerungen im Release Solaris 10 1/06 gibt einen Überblick über neue Leistungsmerkmale im Solaris-Release 10 1/06. Kapitel 7Neuerungen im Betriebssystem Solaris 10 3/05 gibt einen Überblick über neue Leistungsmerkmale im Solaris-Release 10 3/05. Kapitel 7Neuerungen im Betriebssystem Solaris 10 3/05 gibt weiterhin auch einen Überblick über alle Leistungsmerkmale sortiert nach den Solaris·Express-Releases, in denen diese Leistungsmerkmale eingeführt wurden.
In Solaris 10 08/08 wurden die folgenden Installationsfunktionen und -verbesserungen implementiert.
Ab Solaris-Release Solaris 10 08/08 können Sie ein ZFS-Root-Dateisystem installieren und booten.
Die folgenden Installationsprogramme führen eine Neuinstallation auf einem ZFS-Root-Pool durch.
Das textbasierte Solaris-Installationsprogramm führt eine Neuinstallation eines ZFS-Root-Pools aus. Während der Installation können Sie auswählen, ob Sie ein UFS-Dateisystem oder ein ZFS-Root-Pool installieren möchten. Sie können auch ein gespiegeltes ZFS-Root-Pool einrichten, indem Sie während der Installation zwei Festplatten auswählen. Als Alternative dazu können Sie nach der Installation zusätzliche Festplatten hinzufügen bzw. anhängen, um ein gespiegeltes ZFS-Root-Pool zu erstellen. Swap-Speicher und Speicherabzugsgeräte auf ZFS-Volumes werden im ZFS-Root-Pool automatisch erstellt.
Eine schrittweise Anleitung finden Sie in Chapter 3, Installing With the Solaris Interactive Text Installer for ZFS Root Pools (Planning and Tasks), in Solaris 10 Installation Guide: Basic Installations .
Bei der benutzerdefinierten JumpStart-Installation können Sie ein Profil zum Erstellen eines ZFS-Speicherpools anlegen und ein bootfähiges ZFS-Dateisystem vorsehen. Neue ZFS-Profilschlüsselwörter führen für ein ZFS-Root-Pool eine Neuinstallation durch. Ein ZFS-Profil enthält eine beschränkte Menge an Schlüsselwörtern.
Weitere Informationen zur JumpStart-Installation und zu ZFS finden Sie in Chapter 9, Installing a ZFS Root Pool With JumpStart, in Solaris 10 Installation Guide: Custom JumpStart and Advanced Installations .
Mit Solaris Live Upgrade können Sie die folgenden Aufgaben ausführen:
Migration eines UFS-Root-Dateisystems (/) auf ein ZFS-Root-Pool
Sie können eine neue Bootumgebung wie folgt erstellen:
innerhalb eines vorhandenen ZFS-Root-Pools
innerhalb eines anderen ZFS-Root-Pools
aus einer anderen Quelle als dem·gegenwärtig laufenden System
auf einem System mit installierten nicht-globalen Zonen
Nach dem Erstellen einer ZFS-Bootumgebung mithilfe des Befehls lucreate können Sie für die Bootumgebung die anderen Solaris Live Upgrade-Befehle wie luupgrade and luactivate verwenden. Weitere Informationen zur Verwendung von Solaris Live Upgrade für ZFS finden Sie in Chapter 12, Solaris Live Upgrade (Overview), in Solaris 10 10/08 Installation Guide: Solaris Live Upgrade and Upgrade Planning .
In Solaris 10 08/08 wurden die folgenden Leistungsmerkmale und Verbesserungen für die Systemverwaltung implementiert.
Im folgenden Abschnitt sind die neuen Leistungsmerkmale des ZFS-Dateisystems zusammengefasst. Weitere Informationen zu diesen neuen Features finden Sie im Solaris ZFS - Administrationshandbuch.
Unterstützung für Installation und Booten mit ZFS – Ab Release Solaris 10 08/08 können Sie ein ZFS-Root-Dateisystem installieren und booten. ZFS-Root-Dateisysteme können mithilfe der Neuinstallationsoption oder mit JumpStart installiert werden. Sie können ein UFS-Root-Dateisystem mithilfe von Solaris Live Upgrade Zonen auf ein ZFS-Root-Dateisystem migrieren. Darüber hinaus unterstützt ZFS jetzt Swap- und Speicherabzugsbereiche.
Rollback eines ZFS-Datasets ohne Aushängen – Ab Release Solaris 10 08/08 können Sie für ein Dataset ein Rollback durchführen, ohne dass er zuvor ausgehängt werden muss. Das bedeutet, dass die Option zfs rollback -f zum Erzwingen des Aushängens nicht mehr gebraucht wird. Die Option -f wird nicht mehr unterstützt und wird ignoriert, wenn sie angegeben wird.
Erweiterungen des Befehls „zfs send“ – In Release Solaris 10 08/08 wurde der Befehl zfs send wie folgt erweitert:
Sie können jetzt alle inkrementellen Streams von einem Snapshot zu einem kumulativen Snapshot senden. Beispiel:
# zfs list NAME USED AVAIL REFER MOUNTPOINT pool 428K 16.5G 20K /pool pool/fs 71K 16.5G 21K /pool/fs pool/fs@snapA 16K - 18.5K - pool/fs@snapB 17K - 20K - pool/fs@snapC 17K - 20.5K - pool/fs@snapD 0 - 21K - # zfs send -I pool/fs@snapA pool/fs@snapD > /snaps/fs@combo |
Diese Syntax zeigt, wie alle inkrementellen Snapshots zwischen fs@snapA und fs@snapD nach fs@combo gesendet werden.
Sie können einen inkrementellen Stream vom ursprünglichen Snapshot senden, um einen Klon zu erstellen. Der ursprüngliche Snapshot muss auf der Empfangsseite bereits vorhanden sein, damit der inkrementelle Stream angenommen werden kann. Beispiel:
# zfs send -I pool/fs@snap1 pool/clone@snapA > /snaps/fsclonesnap-I . . # zfs receive -F pool/clone < /snaps/fsclonesnap-I |
Sie können einen Replikationsstream aller abhängigen Dateisysteme zu den benannten Snapshots senden. Nach dem Empfang werden alle Eigenschaften, Snapshots, abhängigen Dateisysteme und Klone beibehalten. Beispiel:
# zfs send -R pool/fs@snap > snaps/fs-R |
Sie können einen inkrementellen Replikationsstream senden.
zfs send -R -[iI] @snapA pool/fs@snapD |
Ausführlichere Beispiele finden Sie in Solaris ZFS - Administrationshandbuch.
ZFS-Kontingente und Reservierungen nur für Dateisystemdaten – Ab Release Solaris 10 08/08 sind Dataset-Kontingente und -Reservierungen verfügbar, in deren Speicherplatzbelegung keine untergeordneten Objekte wie Snapshots und Klone angegeben werden. Die existierenden ZFS-Kontingente und -Reservierungen bleiben gegenüber früheren Solaris-Releases unverändert.
Die Eigenschaft refquota beschränkt den Speicherplatz, den ein Dataset belegen kann. Sie erzwingt einen absoluten Grenzwert des belegbaren Speicherplatzes. Dieser absolute Grenzwert berücksichtigt jedoch nicht den von abhängigen Entitäten wie z. Snapshots oder Klonen belegten Speicherplatz.
Die Eigenschaft refreservation legt den für einen Dataset minimal garantierten Speicherplatz (ohne Speicherplatz für abhängige Entitäten) fest.
So können Sie beispielsweise in refquota für studentA einen Wert von 10 GB festlegen, der für den von diesem Benutzer belegten Speicherplatz einen absoluten Grenzwert von 10 GB festlegt. Zum Erreichen einer zusätzlichen Flexibilität können Sie ein 20 GB-Kontingent einstellen, mit dessen Hilfe Sie die Snapshots von studentA verwalten können.
# zfs set refquota=10g tank/studentA # zfs set quota=20g tank/studentA |
Eigenschaften von ZFS-Speicherpools – In Release Solaris 10 08/08 sind neue Informationen zu Eigenschaften von ZFS-Speicherpools verfügbar.
Anzeigen aller Pool-Attribute – Mit dem Befehl zpool get all pool können Sie sich alle Informationen zu Pool-Eigenschaften anzeigen lassen. Beispiel:
# zpool get all users NAME PROPERTY VALUE SOURCE users size 16.8G - users used 194K - users available 16.7G - users capacity 0% - users altroot - default users health ONLINE - users guid 14526624140147884971 - users version 10 default users bootfs - default users delegation on default users autoreplace off default users cachefile - default users failmode wait default |
Eigenschaft cachefile – Diese Version enthält die neue Eigenschaft cachefile die festlegt, wo Informationen zur Poolkonfiguration im Cache-Speicher abgelegt werden. Alle Pools im Cache werden beim Booten des Systems automatisch importiert. Es kann jedoch sein, dass Installations- und Cluster-Umgebungen diese Informationen an verschiedenen Stellen im Cache-Speicher ablegen müssen, sodass Pools nicht automatisch importiert werden.
Sie können diese Eigenschaft so einstellen, dass Poolkonfigurationen an einer anderen Stelle im Cache-Speicher abgelegt werden und später mithilfe des Befehls zpool import -c importiert werden können. Für die meisten ZFS-Konfigurationen wird diese Eigenschaft nicht verwendet.
Die Eigenschaft cachefile ist nicht beständig und wird nicht auf Festplatte gespeichert. Diese Eigenschaft löst die Eigenschaft temporary ab, die in früheren Solaris-Versionen anzeigte, dass Poolinformationen nicht im Cache gespeichert werden sollten.
Eigenschaft failmode property – Diese Version enthält die Eigenschaft failmode, mit der festgelegt wird, wie sich das System im Falle eines äußerst schwerwiegenden·Poolausfalls aufgrund von Unterbrechungen in der Gerätekonnektivität bzw. dem gleichzeitigen Ausfall aller Speichergeräte im Pool verhalten soll. Die Eigenschaft failmode kann auf die Werte wait, continue oder panic gesetzt werden. Der Standardwert ist wait. Dies bedeutet, dass Sie das ausgefallene Gerät neu in das Pool integrieren oder auswechseln und den Fehler danach mit dem Befehl zpool clear löschen müssen.
Die Eigenschaft failmode wird wie andere einstellbare ZFS-Eigenschaften auch gesetzt. Dies kann vor oder nach dem Erstellen eines Pools geschehen. Beispiel:
# zpool set failmode=continue tank # zpool get failmode tank NAME PROPERTY VALUE SOURCE tank failmode continue local |
# zpool create -o failmode=continue users mirror c0t1d0 c1t1d0 |
Verbesserungen an der ZFS-Befehlschronik ( zpool history) – Ab Release Solaris 10 08/08 bietet der Befehl zpool history die folgenden neuen Leistungsmerkmale:
Es werden Informationen zu Ereignissen im ZFS-Dateisystem angezeigt. Beispiel:
# zpool history users History for 'users': 2008-07-10.09:43:05 zpool create users mirror c1t1d0 c1t2d0 2008-07-10.09:43:48 zfs create users/home 2008-07-10.09:43:56 zfs create users/home/markm 2008-07-10.09:44:02 zfs create users/home/marks 2008-07-10.09:44:19 zfs snapshot -r users/home@yesterday |
Die Option -l zum Anzeigen von Informationen im ausführlichen Format, das Benutzename, Hostname sowie die Zone, in der die betreffende Operation ausgeführt wurde, anzeigt. Beispiel:
# zpool history -l users History for 'users': 2008-07-10.09:43:05 zpool create users mirror c1t1d0 c1t2d0 [user root on corona:global] 2008-07-10.09:43:13 zfs create users/marks [user root on corona:global] 2008-07-10.09:43:44 zfs destroy users/marks [user root on corona:global] 2008-07-10.09:43:48 zfs create users/home [user root on corona:global] 2008-07-10.09:43:56 zfs create users/home/markm [user root on corona:global] 2008-07-10.09:44:02 zfs create users/home/marks [user root on corona:global] 2008-07-11.10:44:19 zfs snapshot -r users/home@yesterday [user root on corona:global] |
Die Option -i zum Anzeigen von Informationen zu internen Ereignissen. Diese sind für diagnostische Zwecke nutzbar. Beispiel:
# zpool history -i users History for 'users': 2008-07-10.09:43:05 zpool create users mirror c1t1d0 c1t2d0 2008-07-10.09:43:13 [internal create txg:6] dataset = 21 2008-07-10.09:43:13 zfs create users/marks 2008-07-10.09:43:48 [internal create txg:12] dataset = 27 2008-07-10.09:43:48 zfs create users/home 2008-07-10.09:43:55 [internal create txg:14] dataset = 33 2008-07-10.09:43:56 zfs create users/home/markm 2008-07-10.09:44:02 [internal create txg:16] dataset = 39 2008-07-10.09:44:02 zfs create users/home/marks 2008-07-10.09:44:19 [internal snapshot txg:21] dataset = 42 2008-07-10.09:44:19 [internal snapshot txg:21] dataset = 44 2008-07-10.09:44:19 [internal snapshot txg:21] dataset = 46 2008-07-10.09:44:19 zfs snapshot -r users/home@yesterday |
Aktualisieren von ZFS-Dateisystemen ( zfs upgrade) – Ab Release Solaris 10 08/08 können Sie mithilfe des Befehls zfs upgrade vorhandene ZFS-Dateisysteme um neue Dateisystemfunktionen erweitern. ZFS-Speicherpools besitzen eine ähnliche Upgrade-Funktion, um vorhandene Speicherpools um neue Funktionalität zu erweitern.
Beispiel:
# zfs upgrade This system is currently running ZFS filesystem version 2. The following filesystems are out of date, and can be upgraded. After being upgraded, these filesystems (and any 'zfs send' streams generated from subsequent snapshots) will no longer be accessible by older software versions. VER FILESYSTEM --- ------------ 1 datab 1 datab/users 1 datab/users/area51 |
Dateisysteme, die aktualisiert wurden sowie alle aus diesen aktualisierten Dateisystemen mithilfe des Befehls zfs send generierten Streams sind auf Systemen, auf denen ältere Software-Releases installiert sind, nicht zugänglich.
Delegierte ZFS-Administration – Ab Release Solaris 10 08/08 können Sie fein abgestimmte Zugriffsrechte an Benutzer ohne entsprechene Zugriffsrechte delegieren, damit diese ZFS-Administrationsaufgaben ausführen können.
Zum Gewähren und Verweigern von Zugriffsrechten dienen die Befehle zfs allow und zfs unallow.
Mit der Speicherpool-Eigenschaft delegation kann die delegierte Administration aktiviert und deaktiviert werden. Beispiel:
# zpool get delegation users NAME PROPERTY VALUE SOURCE users delegation on default # zpool set delegation=off users # zpool get delegation users NAME PROPERTY VALUE SOURCE users delegation off local |
Standardmäßig ist die Eigenschaft delegation aktiviert.
Einrichten getrennter ZFS-Protokollgeräte – Das ZFS Intent Log (ZIL) erfüllt POSIX-Voraussetzungen für synchrone Transaktionen. So setzen Datenbanken bei der Rückkehr von Systemaufrufen beispielsweise oft voraus, dass Transaktionen auf stabilen Speichergeräten stattfinden. NFS und andere Anwendungen können zur Gewährleistung der Datenstabilität ebenfalls fsync() verwenden. Standardmäßig wird das ZIL aus Blöcken innerhalb des Hauptspeicherpools zugewiesen. Durch Verwendung getrennter ZIL-Geräte im ZFS-Speicherpool wie z. B. NVRAM oder einer speziell dafür vorgesehenen Festplatte kann jedoch in Solaris 10 08/08 eine höhere Leistung erreicht werden.
Protokolliergeräte für ZIL sind etwas Anderes als Datenbankprotokolldateien.
Sie können ZFS-Protokolliergeräte während oder nach dem Erstellen eines Speicherpools einrichten. Beispiele zum Einrichten von Protokolliergeräten finden Sie in Solaris ZFS - Administrationshandbuch.
Erstellen intermediärer ZFS-Datasets – Ab Release Solaris 10 08/08 können Sie mithilfe der Option -p mit den Befehlen zfs create, zfs clone und zfs rename schnell einen intermediären Dataset erstellen, falls er noch nicht vorhanden ist.
So können Sie beispielsweise ZFS-Datasets (users/area51) im Speicherpool datab erstellen.
# zfs list NAME USED AVAIL REFER MOUNTPOINT datab 106K 16.5G 18K /datab # zfs create -p -o compression=on datab/users/area51 |
Wenn während des Erstellungsvorgangs bereits ein intermediärer Dataset vorhanden ist, wird er ohne Fehlermeldung abgeschlossen.
Angegebene Eigenschaften gelten für den Ziel-Dataset und nicht für die intermediären Datasets. Beispiel:
# zfs get mountpoint,compression datab/users/area51 NAME PROPERTY VALUE SOURCE datab/users/area51 mountpoint /datab/users/area51 default datab/users/area51 compression on local |
Es wird ein intermediärer Dataset mit Standard-Einhängepunkt erstellt. Alle zusätzlichen Eigenschaften werden für diesen intermediären Dataset deaktiviert. Beispiel:
# zfs get mountpoint,compression datab/users NAME PROPERTY VALUE SOURCE datab/users mountpoint /datab/users default datab/users compression off default |
Weitere Informationen finden Sie in der Manpage zfs(1M).
Verbesserungen am ZFS-Hotplugging – Ab Release Solaris 10 08/08 reagiert ZFS besser·auf entfernte Speichergeräte und besitzt einen Mechanismus zum automatischen Identifizieren von Speichergeräten, die in das System eingefügt wurden:
Sie können ein Speichergerät durch ein anderes auswechseln, ohne dafür den Befehl zpool replace eingeben zu müssen.
Die Eigenschaft autoreplace legt die Charakteristika des automatischen Erkennens ausgewechselter Geräte fest. Wenn diese Eigenschaft auf off gesetzt ist, muss das Auswechseln von Speichergeräten vom Administrator mithilfe des Befehls zpool replace initiiert werden. Wenn diese Eigenschaft auf on gesetzt ist, wird das neue Speichergerät an der physischen Adresse des vorherigen Speichergeräts im Pool automatisch formatiert und in das Pool eingebunden. Das Standardverhalten ist off
Für die physische Entfernung eines Speichergeräts bzw. Hot-Spares bei laufendem System gibt es jetzt den Speicherpoolstatus REMOVED. Falls verfügbar, wird ein Hot-Spare für das entfernte Speichergerät in das Pool eingebunden.
Wenn ein Speichergerät entfernt und danach wieder eingesetzt wird, wird es online geschaltet. Wenn für das entfernte Speichergerät ein Hot-Spare eingebunden wurde, wird dieses bei Abschluss der Online-Schaltung wieder entfernt.
Das automatische Erkennen entfernter und hinzugefügter Speichergeräte ist hardwareabhängig und wird nicht von allen Plattformen unterstützt. So werden USB-Speichergeräte beispielsweise beim Einfügen automatisch konfiguriert. Bei SATA-Datenträgern kann es jedoch sein, dass Sie diese mithilfe des Befehls cfgadm -c configure konfigurieren müssen.
Hot-Spares werden regelmäßig überprüft, um sicherzustellen, dass sie online und verfügbar sind.
Weitere Informationen entnehmen Sie bitte der Man Page zpool(1M).
Rekursive Umbenennung von ZFS-Snapshots ( zfs rename -r) – Ab Release Solaris 10 08/08 können Sie alle untergeordneten ZFS-Snapshots mithilfe des Befehls zfs rename -r rekursiv umbenennen.
Erstellen Sie z. B. einen Snapshot von einer Reihe von ZFS-Dateisystemen.
# zfs snapshot -r users/home@today # zfs list NAME USED AVAIL REFER MOUNTPOINT users 216K 16.5G 20K /users users/home 76K 16.5G 22K /users/home users/home@today 0 - 22K - users/home/markm 18K 16.5G 18K /users/home/markm users/home/markm@today 0 - 18K - users/home/marks 18K 16.5G 18K /users/home/marks users/home/marks@today 0 - 18K - users/home/neil 18K 16.5G 18K /users/home/neil users/home/neil@today 0 - 18K - |
Dann können Sie die Snapshots am nächsten Tag umbenennen.
# zfs rename -r users/home@today @yesterday # zfs list NAME USED AVAIL REFER MOUNTPOINT users 216K 16.5G 20K /users users/home 76K 16.5G 22K /users/home users/home@yesterday 0 - 22K - users/home/markm 18K 16.5G 18K /users/home/markm users/home/markm@yesterday 0 - 18K - users/home/marks 18K 16.5G 18K /users/home/marks users/home/marks@yesterday 0 - 18K - users/home/neil 18K 16.5G 18K /users/home/neil users/home/neil@yesterday 0 - 18K - |
Snapshots sind die einzigen Datasets, die rekursiv umbenannt werden können.
GZIP-Komprimierung jetzt für ZFS verfügbar – Ab Release Solaris 10 08/08 können ZFS-Dateisysteme neben der lzjb-Komprimierung auch mit gzip komprimiert werden. Sie können festlegen, dass die Komprimierung vom Typ gzip (Standardeinstellung) sein soll oder vom Typ gzip-N, wobei N den Wert 1 bis 9 haben kann. Beispiel:
# zfs create -o compression=gzip users/home/snapshots # zfs get compression users/home/snapshots NAME PROPERTY VALUE SOURCE users/home/snapshots compression gzip local # zfs create -o compression=gzip-9 users/home/oldfiles # zfs get compression users/home/oldfiles NAME PROPERTY VALUE SOURCE users/home/oldfiles compression gzip-9 local |
Speichern mehrerer Kopien von ZFS-Benutzerdaten – Zur Erhöhung der Zuverlässigkeit speichern ZFS-Dateisysteme Metadaten automatisch auf mehreren Festplatten. Dies wird als ditto blocks bezeichnet. Ab Release Solaris 10 08/08 können Sie über den Befehl zfs set copies festlegen, dass mehrere Kopien der Benutzerdaten auch pro Dateisystem gespeichert werden sollen. Beispiel:
# zfs set copies=2 users/home # zfs get copies users/home NAME PROPERTY VALUE SOURCE users/home copies 2 local |
Verfügbare Werte sind 1, 2 oder 3. Der Standardwert ist 1. Diese Kopien werden zusätzlich zu den von Redundanzfunktionen (Datenspiegelung bzw. RAID-Z) auf Pool-Ebene angelegten Sicherungskopien erstellt.
Weitere Informationen zur Verwendung dieser Eigenschaft finden Sie im Solaris ZFS - Administrationshandbuch.
Die folgenden Leistungemerkmale wurden in früheren Versionen des Betriebssystems Solaris eingeführt:
ZFS-Befehlsspeicher ( zpool history): Ab Solaris 10 8/07 protokolliert ZFS automatisch zfs- und zpool-Befehle, durch die Pool-Zustandsinformationen geändert werden. Dank dieses Leistungsmerkmals können Sie oder Sun-Supportmitarbeiter genau feststellen, welche ZFS-Befehle bei der Behebung eines Fehlers ausgeführt wurden.
Verbesserte Statusinformationen des Speicherpools ( zpool status): Ab Solaris 10 8/07 können Sie mit dem Befehl zpool status -v eine Liste der Dateien mit beständigen Fehlern anzeigen. Bisher mussten die Dateinamen mit Hilfe des Befehls find -inum anhand der Liste der angezeigten Knoten ermittelt werden.
Verbesserungen von ZFS und Solaris iSCSI: Ab Solaris 10 8/07 können Sie durch Setzen der Eigenschaft shareiscsi im ZFS-Volume ein ZFS-Volume als ein Solaris iSCSI-Zielgerät erstellen. Mithilfe dieses Verfahrens können Solaris iSCSI-Zielgeräte schnell eingerichtet werden. Beispiel:
# zfs create -V 2g tank/volumes/v2 # zfs set shareiscsi=on tank/volumes/v2 # iscsitadm list target Target: tank/volumes/v2 iSCSI Name: iqn.1986-03.com.sun:02:984fe301-c412-ccc1-cc80-cf9a72aa062a Connections: 0 |
Nach dem Erstellen des iSCSI-Zielgeräts muss der iSCSI-Initiator definiert werden. Informationen zur Einrichtung eines Solaris iSCSI-Initiators finden Sie in Kapitel 14, Configuring Solaris iSCSI Targets and Initiators (Tasks) in System Administration Guide: Devices and File Systems.
Weitere Informationen zum Verwalten eines ZFS-Volume als ein iSCSI-Ziel finden Sie im Solaris ZFS - Administrationshandbuch.
Verbesserungen der ZFS-Eigenschaften
ZFS-Eigenschaft xattr: Ab Solaris 10 8/07 können Sie mit der Eigenschaft xattr für ein bestimmtes ZFS-Dateisystem erweiterte Attribute deaktivieren oder aktivieren. Der Standardwert ist on.
ZFS-Eigenschaft canmount: Ab Solaris 10 8/07 können Sie über die Eigenschaft canmount festlegen, ob ein Datensatz über den Befehl zfs mount eingliederbar sein soll.
ZFS-Benutzereigenschaften: Ab Solaris 10 8/07 unterstützt ZFS neben den nativen Standardeigenschaften Benutzeigenschaften, über die entweder interne Statistiken exportiert oder das Verhalten von ZFS-Dateisystemen gesteuert werden kann. Benutzerdefinierte Eigenschaften wirken sich nicht auf das ZFS-Verhalten aus, können jedoch zum Versehen von Datasets mit Informationen, die für Ihre lokalen Gegebenheiten wichtig sind, verwendet werden.
Setzen von Eigenschaften beim Erstellen von ZFS-Dateisystemen: Ab Solaris 10 8/07 können Sie neben dem Setzen von Eigenschaften nach der Erstellung eines Dateisystems die Eigenschaften auch beim Erstellen eines Dateisystems festlegen.
Die folgenden Beispiele zeigen die entsprechende Syntax:
# zfs create tank/home # zfs set mountpoint=/export/zfs tank/home # zfs set sharenfs=on tank/home # zfs set compression=on tank/home |
Sie können die Eigenschaften auch setzen, wenn das Dateisystem erstellt wird.
# zfs create -o mountpoint=/export/zfs -o sharenfs=on -o compression=on tank/home |
Anzeigen aller Informationen des ZFS-Dateisystems: Um für den Fall, dass kein spezieller Datensatz angegeben ist, die Informationen aller Datensätze anzuzeigen, stehen ab Solaris 10 8/07 verschiedene Formen des Befehls zfs get zur Verfügung. Bisher war es nicht möglich, mit dem Befehl zfs get Informationen aller Datensätze anzuzeigen.
Beispiel:
# zfs get -s local all tank/home atime off local tank/home/bonwick atime off local tank/home/marks quota 50G local |
Neue ZFS-Empfangsoption -F: Ab Solaris 10 8/07 können Sie die neue Option -F für den Befehl zfs receive verwenden, um das Dateisystem vor dem Empfang auf den letzten Snapshot zurückzusetzen. Die Verwendung dieser Option kann erforderlich werden, wenn das Dateisystem zwischen dem Zeitpunkt des Rollbacks und des Beginns der receive-Operation geändert wurde.
Rekursive ZFS-Snapshots – In Solaris 10 11/06 sind rekursive Snapshots verfügbar. Wenn Sie zum Erstellen eines Dateisystem-Snapshot den Befehl zfs snapshot verwenden, können Sie durch die Verwendung der Option -r erreichen, dass für alle untergeordneten Dateisysteme rekursiv Snapshots erstellt werden. Darüber hinaus werden bei der Löschung eines Snapshots mit der Option - r alle nachfolgenden Snapshots rekursiv gelöscht.
RAID-Z mit doppelter Parität ( raidz2): Replizierte RAID-Z-Konfigurationen können in·Solaris 10 11/06 einfache oder doppelte Parität besitzen. Das bedeutet, dass in einem System bis zu zwei Geräteausfälle ohne Datenverlust möglich sind. Eine RAID-Z-Konfiguration doppelter Parität kann mithilfe des Schlüsselworts raidz2 angegeben werden. Entsprechend können Sie für eine RAID-Z-Konfiguration mit einfacher Parität eines der Schlüsselwörter raidz oder raidz1 angeben.
Hot-Spares für ZFS-Speicher-Pools: Mithilfe der Hot-Spare-Funktion können Sie ab Solaris 10 11/06 Datenträger ermitteln, die zum Ersetzen eines ausgefallenen bzw. fehlerhaften Geräts in einem bzw. mehreren Speicherpools verwendet werden können. Das Vorsehen eines Datenträgers als Hot-Spare-Gerät bedeutet, das bei Ausfall eines aktiven Datenträgers im Pool das Hot-Spare-Gerät diesen automatisch ersetzt. Alternativ dazu können Sie Datenträger in einem Speicher-Pool auch manuell durch ein Hot-Spare-Gerät ersetzen.
Ersetzen eines ZFS-Dateisystems durch einen ZFS-Klon (zfs promote) – Ab Solaris 10 11/06 können Sie mithilfe des Befehls zfs promote ein vorhandenes ZFS-Dateisystem durch einen Klon dieses Dateisystems ersetzen. Diese Funktion ist hilfreich, wenn Sie an verschiedenen Versionen eines Dateisystems Tests ausführen wollen und danach eine alternative Version des Dateisystems zum aktiven Dateisystem machen wollen.
ZFS- und Zonenverbesserungen: In·Solaris 10 11/06 wurde die ZFS- und Zoneninteraktion verbessert. Auf einem Solaris-System mit installierten Zonen können Sie mit zoneadm clone die Daten aus einem vorhandenen ZFS-zonepath-Quellverzeichnis in ein ZFS-zonepath-Zielverzeichnis auf dem System kopieren. Nicht-globale Zonen können mit der ZFS-Klonfunktion nicht geklont werden. Hierzu müssen Sie den Befehl zoneadm clone verwenden. Weitere Informationen dazu finden Sie unter Systemverwaltungshandbuch: Solaris Container – Ressourcenverwaltung und Solaris Zones.
Aktualisierung von ZFS-Speicher-Pools ( zpool upgrade): Ab Solaris 10 6/06 können Sie die Speicher-Pools mit dem Befehl zpool upgrade auf eine neuere Version aktualisieren, um die neuesten Funktionen nutzen zu können. Darüber hinaus wurde der Befehl zpool status so geändert, dass Sie jetzt darauf hingewiesen werden, wenn Pools mit älteren Versionen laufen.
Zurücksetzen von Gerätefehlern: Mit dem Befehl zpool clear lassen sich ab Solaris 10 6/06 Fehlerzähler für ein Gerät oder den Pool zurücksetzen. In früheren Versionen wurden Fehlerzähler bei der Wiederinbetriebnahme eines Datenträgers im Pool mithilfe des Befehls zpool online zurückgesetzt.
Wiederherstellung gelöschter Pools – Ab Solaris 10 6/06 können Sie mithilfe des Befehls zpool import - D Pools wiederherstellen, die vorher mit dem Befehl zpool destroy gelöscht wurden.
ZFS-Befehle zum Erstellen von Sicherungskopien und zur Wiederherstellung wurden umbenannt – Ab Solaris 10 6/06 wurden die Befehle zfs backup und zfs restore zur genaueren Funktionsbeschreibung in zfs send und zfs receive umbenannt. Die Aufgabe dieser Befehle besteht im Sichern und Wiederherstellen von Instanzen von ZFS-Datenstreams.
compact-Format für NFSv4-Zugriffslisten – Ab Solaris 10 6/06 sind drei NFSv4-Zugriffslistenformate verfügbar: ausführlich, positional und kompakt. Mit den neuen kompakten und positionalen Zugriffssteuerungslistenformaten können Zugriffssteuerungslisten gesetzt und angezeigt werden. Mit dem Befehl chmod können Sie alle drei Zugriffssteuerungslistenformate setzen. Mit der Option ls -V können Sie kompakte und positionale Zugriffsteuerungslistenformate anzeigen. Mit der Option ls -v können Sie kompakte und ausführliche·Zugriffsteuerungslistenformate anzeigen.
Zeitweiliges Außerbetriebnehmen von Speichergeräten – Ab Solaris 10 6/06 können Sie mithilfe des Befehls zpool offline -t Speichergeräte zeitweilig außer Betrieb nehmen. Nach einem Systemneustart wird das betreffende Speichergerät wieder in den Status ONLINE geschaltet.
ZFS ist mit Fault Manager integriert – Ab Solaris 10 6/06 wird ein ZFS-Diagnoseprogramm mitgeliefert, mit dem Ausfälle von Pools und Speichergeräten erkannt und gemeldet werden. Darüber hinaus werden auch Prüfsummen-, E/A- und Gerätefehler gemeldet, die aufgrund von Pool- und Geräteausfällen auftreten. Diagnose- und Fehlerinformationen werden auf die Konsole und in die Datei /var/adm/messages geschrieben. Darüber hinaus können mithilfe des Befehls zpool status ausführliche Iinformationen zur Systemwiederherstellung nach einem gemeldeten Fehler angezeigt werden.
Weitere Informationen zu diesen Verbesserungen und Änderungen entnehmen Sie bitte dem Dokument Solaris ZFS - Administrationshandbuch.
Informationen zu verwandten ZFS-Leistungsmerkmalen finden Sie in den folgenden Abschnitten über Neuerungen.
Die folgenden Solaris-Installationsprogramme wurden in Release Solaris 10 08/08 erweitert und unterstützen jetzt ZFS-Dateisysteme:
Das interaktive textbasierte Solaris-Installationsprogramm kann jetzt UFS- oder ZFS-Root-Dateisysteme installieren. In Release Solaris 10 08/08 wird standardmäßig ein UFS-Dateisystem installiert.
Bei der benutzerdefinierten JumpStart-Installation können Sie ein Profil zum Erstellen eines ZFS-Speicherpools anlegen und ein bootfähiges ZFS-Dateisystem vorsehen.
Mithilfe von SolarisTM Live Upgrade können Sie ein UFS-Root-Dateisystem auf ein UFS-Root-Dateisystem migrieren. Die Befehle lucreate und luactivate wurden erweitert und unterstützen jetzt ZFS-Pools und -Dateisysteme. Die Befehle lustatus und ludelete funktionieren wie in früheren Solaris-Versionen.
Sie können auch ein gespiegeltes ZFS-Root-Pool einrichten, indem Sie während der Installation zwei Festplatten auswählen. Als Alternative dazu können Sie nach der Installation zusätzliche Festplatten hinzufügen bzw. anhängen, um ein gespiegeltes ZFS-Root-Pool zu erstellen.
Sie können automatisch Swap- und Speicherabzugsbereiche auf ZFS-Volumes im ZFS-Root-Pool erstellen lassen.
Weitere Informationen finden Sie im Solaris ZFS - Administrationshandbuch.
Für frühere Solaris 10-Versionen gelten bei Solaris-Installationsprogrammen folgende Einschränkungen für die Unterstützung von ZFS-Dateisystemen:
Benutzerdefinierte JumpStart-Installation - ZFS-Dateisysteme können nicht in Jumpstart-Profile aufgenommen werden. Sie können jedoch von einem ZFS-Datenspeicherpool aus die folgenden Skripten ausführen, um einen Installationsserver bzw. Installationsclient einzurichten:
setup_install_server
add_install_server
add_install_client
Live Upgrade - Behält die ursprüngliche Boot-Umgebung bei und übernimmt die ZFS-Datenspeicherpools in die neue Umgebung. Gegenwärtig kann ZFS nicht als bootfähiges Root-Dateisystem verwendet werden. Deswegen werden vorhandene ZFS-Dateisystem nicht in die Boot-Umgebung kopiert.
Solaris-Erstinstallation - ZFS-Dateisysteme werden bei einer Erstinstallation nicht erkannt. Wenn Sie jedoch Festplatten, die ZFS-Datenspeicherpools enthalten, für die Installation nicht angeben, können Sie diese Datenspeicherpools nach der Installation mithilfe des Befehls zpool import wiederherstellen. Weitere Informationen entnehmen Sie bitte der Man Page zpool(1M).
Wie bei den meisten Neuinstallationsszenarien sollten Sie von Ihren ZFS-Dateien zunächst Sicherungskopien anlegen, bevor Sie mit der Erstinstallation beginnen.
Solaris Upgrade – ZFS-Dateisysteme und -Datenspeicherpools werden beibehalten.
SunVTSTM 7.0 Patch Set 3 besitzt·ein herkömmliches dreischichtiges Architekturmodell mit browserbasierter Benutzeroberfläche, JavaTM-basiertem Middle-Server und einem Diagnoseagent. An SunVTS Patch Set 3 wurden die folgenden Verbesserungen vorgenommen:
Festplatten- und Netzwerktests bieten Aktivierungs- und Deaktivierungsmöglichkeiten.
Die browserbasierte Benutzeroberfläche sowie die TTY-Benutzerschnittstelle bieten Unterstützung für Kontrollkästchen bei den logischen Testoptionen (LT).
fputest und Cache-Tests wurden für x86-Plattformen erweitert.
disktest wurde erweitert und führt auf Dateisystempartitionen keine Schreibtests aus.
Weitere Informationen zu SunVTS finden Sie unter http://docs.sun.com/app/docs/prod/test.validate.
Ab Release Solaris 10 08/08 zeigen DTrace lockstat-Probes, die die Spin-Anzahl anzeigten, die Spin-Zeit jetzt in Nanosekunden an. Die Schnittstelle des lockstat-Providers und die Optionen des Befehls lockstat haben sich nicht geändert.
In Solaris 10 08/08 wurden die folgenden Leistungsmerkmale und Verbesserungen für Systemressourcen implementiert.
Die folgenden Solaris Zones-Erweiterungen sind im Release Solaris 10 08/08 enthalten:
Aktualisieren beim Anhängen - Wenn auf dem neuen Host die gleichen oder neueren Versionen zonenabhängiger Pakete und zugehöriger Patches installiert sind, werden durch Verwendung von zoneadm attach mit der Option -u diese Pakete zur Übereinstimmung mit dem neuen Host innerhalb der Zone aktualisiert. Wenn im Vergleich zum Ausgangshost auf dem neuen Host ein Mix von Packages und Patches höherer und niedrigerer Versionen installiert ist, ist eine Aktualisierung während des Anhängens nicht zulässig. Diese Option ermöglicht auch die automatische Migration zwischen Rechnerklassen wie z.&;B. von sun4u auf sun4v
Weitere Informationen finden Sie in der Manpage zoneadm(1M) sowie in Systemverwaltungshandbuch: Solaris Container – Ressourcenverwaltung und Solaris Zones.
Fähigkeit zum Einstellen des Standard-Routers in Shared-IP-Zonen – Die Eigenschaft „defrouter“ wurde zur·Netzressource im Dienstprogramm zonecfg für nicht-globale Shared-IP-Zonen hinzugefügt. Mithilfe dieser Eigenschaft können Sie den Standard-Router für eine Netzwerkschnittstelle festlegen.
Weitere Informationen finden Sie in der Manpage zonecfg(1M) sowie in Systemverwaltungshandbuch: Solaris Container – Ressourcenverwaltung und Solaris Zones.
ZFS-Zonenpfad zulässig– Ab Release Solaris 10 08/08 kann der Zonenpfad auf ZFS und dem System aktualisiert werden. Systeme mit Zonen, bei denen sich der Zonenpfad·auf ZFS befindet, können nur mit Solaris Live Upgrade aktualisiert werden. Weitere Informationen dazu finden Sie unter Systemverwaltungshandbuch: Solaris Container – Ressourcenverwaltung und Solaris Zones.
Bei allen Solaris-Installationsverfahren einschließl. Solaris Live Upgrade wird jetzt mithilfe des Befehls findroot angegeben, von welchem Festplatten-Speicherbereich ein x86-basiertes System gebootet werden soll. Früher wurde·mit dem Root-Befehl root (hd0.0.a) angegeben, von welchem Festplatten-Speicherbereich gebootet werden soll. Diese Informationen befinden sich in der von GRUB verwendeten Datei menu.lst. Das häufigste Format eines Eintrags in der Datei menu.lst ist:
findroot (rootfs0,0,a) kernel$ /platform/i86pc/kernel/$ISADIR/unix module$ /platform/i86pc/$ISADIR/boot_archive |
Der Befehl findroot kann unabhängig vom Boot-Gerät die Zielfestplatte erkennen. Darüber hinaus bietet der Befehl findroot erweiterte Unterstützung zum Booten von Systemen mit ZFS- und UFS-Roots. Zusätzlich zum Befehl findroot wird jetzt auch der Name einer Signaturdatei auf einem Speicherbereich, (<meineSign>, 0, a) bereitgestellt. Die Boot-Signatur befindet sich im Verzeichnis /boot/grub/bootsign auf dem System. Der Name der Signaturdatei hängt vom jeweils verwendeten Installationsverfahren ab.
Weitere Informationen finden Sie in Implementation of the findroot Command in System Administration Guide: Basic Administration.
Ab Release Solaris 10 08/08 unterstützt das 64-Bit-Betriebssystem Solaris bis zu 256 Prozessoren auf einer x86-Plattform. Frühere Versionen des Betriebssystems Solaris unterstützten im 64-Bit-Modus auf x86-Plattformen nur bis zu 64 Prozessoren.
Die Unterstützung für 256 Prozessoren bringt die folgenden Vorteile:
Sie können dieses Solaris-Release auf vorhandenen x86-Systemen mit bis zu 256 Prozessoren verwenden.
Sie müssen das Betriebssystem nicht aktualisieren, wenn Sie zukünftig Rechner mit über 64 Prozessoren verwenden.
Wenn Sie dieses Solaris-Release verwenden, können Sie beim Einsatz größerer Rechner Ihre gesamte Software-Palette einschließl. Betriebssystem beibehalten.
In Solaris 10 08/08 wurden die folgenden Leistungsmerkmale und Verbesserungen für die Systemverwaltung implementiert.
Der Bootstrap-Prozess SPARC-basierter Solaris-Systeme wurde überarbeitet, um ihn mit der x86-Bootarchitektur von Solaris zu vereinheitlichen.
Die verbesserte Solaris-Boot-Architektur ermöglicht jetzt direktes Booten, RAM-Disk-basiertes Booten sowie RAM-Disk-Miniroots für SPARC-Plattformen. Diese Technologien unterstützen folgende Funktionen:
Booten eines Systems von zusätzlichen Dateisystemtypen, z. B. einem ZFS-Dateisystem.
Booten einer einzelnen Miniroot für die Software-Installation von DVD, NFS oder HTTP.
Weitere Verbesserungen sind u. a. erheblich schnellere Bootzeiten, erhöhte Flexibilität sowie geringerer Wartungsaufwand.
Im Rahmen der Überarbeitung dieser Architektur sind die früher nur auf Solaris x86-Plattformen verfügbaren Boot-Archive sowie der Befehl bootadm jetzt integraler Bestandteil der Solaris Boot-Architektur SPARC-basierter Systeme.
Der Hauptunterschied zwischen den Boot-Architekturen bei SPARC- und x86-Systemen besteht in der Art und Weise der Auswahl des Boot-Geräts und der Boot-Datei zur Bootzeit. SPARC-basierte Systeme nutzen auch weiterhin den OpenBoot PROM (OBP) als primäre administrative Schnittstelle, wobei Boot-Optionen mithilfe von OBP-Befehlen auswählbar sind. Auf der x86-basierten Plattform werden dieses Optionen über das BIOS und das GRUB-Menü (GRUB = GRand Unified Bootloader) ausgewählt.
Im Release Solaris 10 08/08 ist die Fähigkeit zum direkten Laden und Booten des UNIX-Kernels nur für SPARC-Plattformen verfügbar. Die x86-Plattform nutzt zum Booten auch weiterhin die Multiboot-Funktionalität.
Obwohl sich die Implementierung des Solaris-Bootvorgangs SPARC-basierter Systeme geändert hat, bleiben die administrativen Vorgänge zum Booten eines SPARC-basierten Systems gleich. Vom Systemadministrator ausgeführte Boot-Aufgaben sind von der Überarbeitung der Boot-Architketur nicht betroffen und bleiben unverändert.
Weitere Informationen finden Sie hier:
Manpages bootadm(1M) und boot(1M)
Kapitel 12, Booting a Solaris System (Tasks) in System Administration Guide: Basic Administration for instructions on booting a Solaris system
Das Kernel erkennt·jetzt das Vorhandensein der Befehlssätze Intel SSSE3, SSE4.1, SSE4.2 und AMD SSE4A. Dies ermöglicht das Laden und Ausführen von Programmen, die diese Hardware-Funktionalität benötigen. dis(1) unterstützt jetzt die Disassemblierung von Befehlen aus diesen Befehlssatzerweiterungen.
Eine Liste mit Anforderungen an die Hardware-Funktionalität für Binärdateitypen finden Sie in der Manpage des Befehls file(1). Eine Liste der Hardware-Funktionalität, die vom Loader eines bestimmten Systemtyps unterstützt wird, finden Sie in der Manpage isainfo(1).
In Solaris 10 08/08 wurden die folgenden Netzwerkfunktionen und -verbesserungen implementiert.
Dieses Leistungsmerkmal erzwingt, dass zum Verwalten von Benutzern über die Solaris Management Console (SMC) zwei oder mehr Benutzer erforderlich sind. Die Pflichtenaufteilung wird durch Regeln erzwungen. In der Rolle als Systemadministrator können Benutzer erstellt, jedoch keine Passwörter und Zugriffsrechte festgelegt werden. Der Sicherheitsadministrator weist Passwörter und Zugriffsrechte zu, kann jedoch keine Benutzer erstellen.
Pflichtenaufteilung ist eine Vorbedingung für die gesetzliche Zulassung von Behördensystemen. SMC unterstützt dieses Leistungsmerkmal jetzt und erleichtert so die Zertifizierung auf Sicherheitsebene.
Weitere Informationen finden Sie in Create Rights Profiles That Enforce Separation of Duty in Solaris Trusted Extensions Configuration Guide.
Dieses Leistungsmerkmal bietet ein zusätzliches crypt(3C)-Plugin-Paar, das auf den Digest-Algorithmen SHA256 und SHA512 basiert. Dieses Plugin bietet einen crypt(3C)-Hash, der FIPS 140-2-kompatible Algorithmen und keine MD5–basierten Hashs mehr verwendet.
Das Modul pam_list bietet Funktionen zu einer auf einer Benutzer- und Netzgruppenliste beruhenden Validierung eines Benutzerkontos auf einem spezifischen Host. Dieses Modul ist mit dem passwd_compat-Modus eine zeiteffektive Methode zur Kontovalidierung.
Weitere Informationen entnehmen Sie bitte der Manpage pam_list(5).
In Solaris 10 08/08 wurden die folgenden Desktop-Funktionen und Verbesserungen implementiert.
Ab Release Solaris 10 08/08 wird Adobe® Reader 8.1.2 mit dem Betriebssystem Solaris ausgeliefert. Die neue Version von Adobe Reader enthält viele neue Leistungsmerkmale wie z. B. eine erheblich verbesserte Benutzeroberfläche, Unterstützung für gemeinsame Dokumentenüberprüfungen (Shared Reviews), und es wurden Sicherheitslücken behoben.
Ausführliche Informationen finden Sie unter http://blogs.adobe.com/acroread/2008/02/adobe_reader_812_for_linux_and.html.
Ab Release Solaris 10 08/08 wird das Betriebssystem Solaris mit Adobe Flash Player 9.0.124.0 ausgeliefert. Zu den neuen Leistungsmerkmalen dieser Version von Flash Player zählen:
Unterstützung für H.264-Video- und HE-AAC-Audio-Codecs
Vollbildmodus für das Betriebssystem Solaris
Verbesserte Leistung aufgrund von Multicore-Unterstützung, Hardware- und Bildskalierung, Videodecodierung über mehrere Threads, Flash Player-Cache und Pufferung über Flash Media Server
Weitere Informationen finden Sie unter http://www.adobe.com/products/flashplayer/productinfo/features/.
In Solaris 10 08/08 wurden die folgenden Netzwerkfunktionen und -verbesserungen implementiert.
Das Session Description Protocol (SDP), RFC 4566 wird für das Beschreiben von·Multimedia-Sitzungen zum Ankündigen von Sitzungen, Einladen von Sitzungsteilnehmern und anderer Arten des Einleitens einer Multimedia-Sitzung verwendet. SDP enthält Medieninformationen wie z. B. Typ und Kodierung, Transportprotokoll, Sitzungsname, Zweck, Eigentümer sowie andere Metadaten zur Sitzungsbeschreibung für Teilnehmer.
Die Bibliothek libcommputil(3LIB) enthält öffentliche Schnittstellen zum Parsen der SDP-Beschreibung über Überprüfen der Syntaxkonformität. Darüber hinaus enthält diese Bibliothek Schnittstellen zum Generieren von SDP-Meldungen und Umwandeln·dieser Meldungen in Byte-Zeichenketten. SDP wird hauptsächlich·vom Session Initiation Protocol (SIP) verwendet. Mithilfe der Bibliothek libcommputil(3LIB) können Solaris SIP-Entwickler diese Schnittstellen bei der Entwicklung von SIP-Anwendungen auf der Solaris-Plattform nutzen.
Weitere Informationen entnehmen Sie bitte der Man Page libcommputil(3LIB).
Der Solaris SIP-Stack bietet Entwicklern von SIP-Anwendungen jetzt die beiden folgenden neuen Leistungsmerkmale:
Messen des Datenverkehrs zwischen zwei Sitzungsendpunkten - Mit dieser Funktion können die folgenden Aktivitäten verfolgt werden.
die vom Stack gesendete und empfangene Gesamtanzahl an Bytes
die Gesamtanzahl gesendeter und empfangener SIP-Anforderungen und -Rückmeldungen
die Anzahl gesendeter und empfangener SIP-Anforderungen, nach Methoden geordnet
die Anzahl gesendeter und empfangener SIP-Anforderungen, nach Rückmeldungscodes·geordnet
SIP-Dialog- bzw. Transaktionsprotokollierung– Mit der SIP-Protokollierungsfunktion können Dialog- und Transaktionsprotokollierung aktiviert und deaktiviert werden. Alle während eines Dialogs bzw. einer Transaktion ausgetauschten SIP-Meldungen werden aufgezeichnet und nach Abschluss des Dialogs bzw. der Transaktion in einer von der Anwendung zur Verfügung gestellten Protokolldatei gespeichert. Die SIP-Protokollierungsfunktion hilft·Entwicklern bei der Aufrufverfolgung und Fehlersuche.
In Solaris 10 08/08 wurden die folgenden Leistungsmerkmale und Verbesserungen für das Gerätemanagement implementiert.
Ab Release Solaris 10 08/08 enthält das Betriebssystem Solaris ein neues Leistungsmerkmal zum sicheren Deaktivieren eines Gerätes, das von der Fehlermanagementarchitketur (FMA) als fehlerhaft eingestuft wurde. Mithilfe dieser Funktion können Geräte zum Vermeiden von Datenverlusten, Datenbeschädigungen, Systemabstürzen und Systemausfällen sicher und automatisch deaktiviert werden. Der Deaktivierungsvorgang erfolgt sicher und berücksichtigt die Systemstabilität nach dem Deaktivieren des betreffenden Geräts.
Systemkritische Geräte werden niemals deaktiviert. Wenn Sie ein deaktiviertes Gerät manuell auswechseln müssen, sollten Sie nach dem Auswechseln den Befehl fmadm repair eingeben, sodass das System „weiß“, dass das betreffende Gerät ausgewechselt wurde.
Der Reparaturvorgang mit fmadm läuft wie folgt ab:
Identifizieren Sie das fehlerhafte Gerät mithilfe des Befehls fmadm faulty- a.
# fmadm faulty STATE RESOURCE / UUID -------- --------------------------------------------------------------------- faulty <fmri> |
Löschen Sie den Fehler mit dem Befehl fmadm repair.
# fmadm repair <fmri> |
Führen Sie erneut den Befehl fmadm faulty aus, um sich zu vergewissern, dass der Fehler gelöscht wurde.
# fmadm faulty -a STATE RESOURCE / UUID |
Weitere Informationen finden Sie in der Manpage fmadm(1M).
Auf der Konsole wird eine allgemeine Meldung zur Geräteauswechslung angezeigt und in der Datei /var/adm/messages protokolliert. Beispiel:
Aug 9 18:14 starbug genunix: [ID 751201 kern.notice] NOTICE: One or more I/O devices have been retired |
Mithilfe des Befehls prtconf können Sie sich bestimmte deaktivierte Geräte anzeigen lassen. Beispiel:
# prtconf . . . pci, instance #2 scsi, instance #0 disk (driver not attached) tape (driver not attached) sd, instance #3 sd, instance #0 (retired) scsi, instance #1 (retired) disk (retired) tape (retired) pci, instance #3 network, instance #2 (driver not attached) network, instance #3 (driver not attached) os-io (driver not attached) iscsi, instance #0 pseudo, instance #0 . . . |
Ab Release Solaris 10 08/08 sind die Systeme Hitachi Adaptable Modular Storage (AMS) und Hitachi Workgroup Modular Storage mit MPxIO integriert. Die Modelle Dual Controller Adaptable Modular Storage und Workgroup Modular Storage können jetzt mehrere Pfade in MPxIO-Umgebungen vollständig nutzen. Damit wird jetzt auch die volle Funktionalität von MPxIO mit Hitachi-Speichersystemen in Sun Cluster-Umgebungen unterstützt.
In Solaris 10 08/08 wurden die folgenden Treiber-Funktionen und Verbesserungen implementiert.
nv_sata ist ein SATA HBA-Treiber mit Hotplug-Funktionalität für Controller vom Typ NVIDIA ck804/mcp55 sowie SATA-kompatible Controller.
Weitere Informationen finden Sie auf der Manpage nv_sata(7D).
Der neue LSI-Treiber mega_sas unterstützt die folgenden Controller:
Dell PERC 5/E, 5/i, 6/E und 6/i RAID
IBM ServeRAID-MR10k SAS/SATA
LSI MegaRAID SAS 8308ELP, 8344ELP, 84016E, 8408ELP, 8480ELP, 8704ELP, 8704EM2, 8708ELP, 8708EM2, 8880EM2 und·8888ELP
Der Treiber mega_sas unterstützt die folgenden RAID-Funktionen:
RAID-Ebenen·0, 1, 5 und 6 sowie RAID-Spans 10, 50 und 60
Online-Kapazitätserweiterung (OCE)
Online-Migration auf RAID-Ebene (RLM)
Automatische Betriebswiederaufnahme nach Stromausfall während des Array-Wiederaufbaus bzw. der Array-Rekonstruktion (OCE/RLM)
Konfigurierbare Stripe-Kapazität von bis zu 1 MB
Konsistenzüberprüfung auf Integrität von Hintergrunddaten
Patrol-Read für das Überprüfen und Reparieren von Datenträgern
Unterstützung für bis zu 64 logische Laufwerke
Unterstützung für bis zu 64TB logischer Gerätenummern (LUNs)
Automatischer Wiederaufbau
Globale und spezielle Hotspare-Unterstützung
Weitere Informationen zu LSI MegaRAID-Produkten finden Sie auf der Website http://www.lsi.com/storage_home/products_home/internal_raid/megaraid_sas/index.html.
Ab Release Solaris 10 08/08 ist der ixgbe-Treiber in das Betriebsystem Solaris integriert. ixgbe ist ein 10 GB-PCI Express Ethernet-Treiber, der Intel 82598 10 GB-Ethernet-Controller unterstützt.
Ab Release Solaris 10 08/08 unterstützt der HBA-Treiber für den Adaptec Advanced RAID Controller aac jetzt die SPARC-Plattform.
Weitere Informationen finden Sie in der Manpage aac(7D).
In Release Solaris 10 08/08 wurden die folgenden zusätzlichen Software-Funktionen und Verbesserungen implementiert.
Die Perl-Datenbankschnittstelle (Perl Database Interface, DBI) ist eine generische Datenbankschnittstelle zur Kommunikation mit bestimmten Datenbank-Backends. DBD::Pg ist ein PostgreSQL-Treiber, über den Perl-Anwendungen mithilfe von DBI mit der PostgreSQL-Datenbank kommunizieren können.
Weitere Informationen finden Sie hier:
PostgreSQL ist ein fortgeschrittenes Open Source-System zur Verwaltung relationaler Datenbanken (RDBMS). Zu den wichtigen Leistungsmerkmalen von PostgreSQL 8.3 zählen integrierte Textsuche, XML-Unterstützung sowie Leistungsverbesserungen in vielen Bereichen.
Weitere Informationen finden Sie auf der Community-Website http://www.postgresql.org/.
Release Solaris 10 08/08 wurde um das folgende Leistungsmerkmal für die Sprachunterstützung erweitert.
Die Hangul LE (Language Engine) ist eine neue koreanische Eingabemethode, die den Benutzerkomfort verbessert. Hangul LE besitzt die folgenden Leistungsmerkmale:
anwenderfreundliche grafische Benutzeroberfläche
komfortablere Eingabefunktionalität für Hangul- bzw. Hanja-Schrift
Weitere Informationen finden Sie in der Hangul LE-Hilfe.
In Solaris 10 08/08 wurden die folgenden Leistungsmerkmale und Verbesserungen für Freeware implementiert.
C-URL ist eine Dienstprogrammbibliothek, die einen programmatischen Zugriff auf die gebräuchlichsten Internetprotokolle wie HTTP, FTP, TFTP, SFTP und TELNET ermöglicht.. C-URL wird in verschiedenen Anwendungen sehr häufig eingesetzt.
Weitere Informationen finden Sie unter http://curl.haxx.se/.
Libidn macht Implementierungen der Spezifikationen Stringprep (RFC 3454), Nameprep (RFC 3491), Punycode (RFC 3492) und IDNA (RFC 3490) verfügbar. Diese Bibliothek erweitert das Betriebssystem Solaris um neue Funktionen und Fähigkeiten.
Weitere Informationen finden Sie in den folgenden Ressourcen:
LibGD ist eine Dienstprogrammbibliothek mit Funktionen zum Umwandeln und Manipulieren von Grafiken. Diese Bibliothek wird sehr häufig in webbasierten Anwendungs-Frameworks eingesetzt. Die Befehlszeilendienstprogramme von LibGD bieten anwenderfreundliche Funktionen zur Grafikkonvertierung.
Weitere Informationen finden Sie unter http://www.libgd.org/.
TIDY ist ein HTML-Parser. Er stellt das HTML-Äquivalent von lint(1) dar und ist nützlich für die Bewertung der Fehlerfreiheit statischer und dynamischer HTML-Seiten.
Weitere Informationen finden Sie unter http://tidy.sourceforge.net/.