Dieses Dokument enthält einen Überblick über alle Leistungsmerkmale von Solaris 10, die in der aktuellen Version Solaris 10 10/09 neu eingeführt oder verbessert wurden.
Einen Überblick über alle Leistungsmerkmale von Solaris 10, die seit der erstmaligen Veröffentlichung von Solaris 9 im Mai 2002 neu eingeführt oder verbessert wurden, finden Sie unter Solaris 10 What’s New.
In Solaris 10 10/09 wurden die folgenden Leistungsmerkmale und Verbesserungen für die Systemverwaltung implementiert.
Ab Solaris 10 10/09 können Sie das Solaris-Betriebssystem von einer Festplatte mit einer Größe bis zu 2 TB installieren und starten. In vorherigen Solaris-Versionen war es nicht möglich, das Solaris-Betriebssystem von einer Festplatte mit mehr als einem Terabyte Speicherkapazität zu installieren und zu starten.
In dieser Version von Solaris können Sie das VTOC-Label auf einer Festplatte beliebiger Größe verwenden. Vom VTOC kann jedoch höchstens ein Speicherplatz von 2 TB angesprochen werden. Mit dieser Funktion können Festplatten, die größer sind als 2 TB, auch als Boot-Laufwerk verwendet werden. Der vom Label verwendbare Speicherplatz beschränkt sich jedoch auf 2 TB.
Diese Funktion ist nur auf Systemen verfügbar, die ein 64-Bit-Kernel ausführen. Bei x86-basierten Systemen ist eine Speicherkapazität von mindestens 1 GB erforderlich.
Weitere Informationen zu den aktualisierten Festplattentreibern und -dienstprogrammen von Solaris, die das Booten von Festplatten über 1 TB unterstützen, finden Sie im System Administration Guide: Devices and File Systems.
Mit dem Dienstprogramm pcitool können Systemadministratoren Interrupts an spezifische Hardware-Strands binden, um die Systemleistung zu verbessern. Das Dienstprogramm kann im öffentlichen SUNWio-tools-Paket aufgerufen werden. Weitere Informationen zur Verwendung von pcitool finden Sie auf der Manpage pcitool.
Im folgenden Abschnitt werden die neuen Leistungsmerkmale des ZFS-Dateisystems zusammengefasst.
Unterstützung der ZFS- und Flash-Installation: In Solaris 10 10/09 können Sie ein JumpStart-Profil einrichten, um das Flash-Archiv eines ZFS-Root-Pools zu ermitteln. Weitere Informationen finden Sie im Solaris ZFS - Administrationshandbuch.
Kontingente für ZFS-Benutzer und -Gruppen festlegen: In früheren Solaris-Versionen konnten Kontingente und Reservierungen auf ZFS-Dateisysteme angewendet werden, um Speicherplatz zu verwalten und zu reservieren. In diesem Solaris-Release können Sie ein Kontingent für den Speicherplatz, der von zu einem bestimmten Benutzer oder einer bestimmten Gruppe gehörigen Dateien beansprucht wird, einrichten. Das Einrichten von Benutzer- oder Gruppenkontingenten ist in einer Umgebung mit vielen Benutzern oder Gruppen sinnvoll. Sie können Benutzer- oder Gruppenkontingente unter Verwendung der Eigenschaften zfs userspace und zfs groupspace wie folgt einrichten:
# zfs set userquota@user1=5G tank/data # zfs set groupquota@staff=10G tank/staff/admins |
Sie können die aktuelle Einstellung eines Benutzer- oder Gruppenkontingents wie folgt anzeigen:
# zfs get userquota@user1 tank/data NAME PROPERTY VALUE SOURCE tank/data userquota@user1 5G local # zfs get groupquota@staff tank/staff/admins NAME PROPERTY VALUE SOURCE tank/staff/admins groupquota@staff 10G local |
Vererbungsmodus "Pass Through" für Ausführungsberechtigung verwenden: In früheren Solaris-Versionen konnten die Zugriffssteuerungslisten vererbt werden, sodass alle Dateien mit den Zugriffsrechten 0664 oder 0666 erstellt wurden. Wenn Sie die Ausführungsberechtigung aus dem Dateierstellungsmodus optional in die vererbbare Zugriffssteuerungsliste einschließen möchten, können Sie in diesem Release den Vererbungsmodus "Pass Through" zur Ausführungsberechtigung verwenden.
Ist aclinherit=passthrough-x auf einem ZFS-Dataset aktiviert, so können Sie die Ausführungsberechtigung für eine aus dem Tool cc oder gcc erstellte Ausgabedatei einschließen. Beinhaltet die vererbbare Zugriffssteuerungsliste die Ausführungsberechtigung nicht, so ist die Ausgabe des Compilers erst dann ausführbar, wenn Sie mit dem Befehl chmod die Berechtigungen der Datei ändern.
Verwendung von Cache-Speicher im ZFS-Speicherpool: In Solaris 10 10/09 können Sie einen Pool anlegen und Cache Devices definieren, auf denen Speicherpooldaten gespeichert werden sollen. Cache-Speicher·bietet zwischen Hauptspeicher und Festplatte eine zusätzliche Schicht zur Datenspeicherung. Die Verwendung von Cache-Speicher bietet für die Speicherung meist statischer Daten mithilfe von wahlfreiem Zugriff die größte Leistungsverbesserung.
Beim Erstellen eines Speicher-Pools können eines oder meherer Cache-Speichergeräte angegeben werden. Beispiel:
# zpool create pool mirror c0t2d0 c0t4d0 cache c0t0d0 # zpool status pool pool: pool state: ONLINE scrub: none requested config: NAME STATE READ WRITE CKSUM pool ONLINE 0 0 0 mirror ONLINE 0 0 0 c0t2d0 ONLINE 0 0 0 c0t4d0 ONLINE 0 0 0 cache c0t0d0 ONLINE 0 0 0 errors: No known data errors |
Informationen darüber, wie Sie ermitteln, ob die Verwendung von Cache Devices für Ihre Umgebung geeignet ist, finden Sie im Solaris ZFS - Administrationshandbuch.
ZFS-Eigenschaftenverbesserungen: Solaris 10 10/09 bietet die folgenden verbesserten ZFS-Eigenschaften:
Sie können die ZFS-Eigenschaften beim Erstellen des Pools festlegen. Im folgenden Beispiel ist die Komprimierung auf dem ZFS-Dateisystem, das bei Erstellung des Pools eingerichtet wird, aktiviert.
# zpool create -O compression=on pool mirror c0t1d0 c0t2d0 |
Sie können in einem ZFS-Dateisystem zwei Cache-Eigenschaften einrichten und damit steuern, was im primären Cache (ARC) oder im sekundären Cache (L2ARC) gespeichert wird. Die Cache-Eigenschaften sind folgendermaßen eingestellt:
primarycache – Kontrolliert, was im ARC gespeichert wird.
secondarycache – Kontrolliert, was im L2ARC gespeichert wird.
Sie können diese Eigenschaften für ein bereits vorhandenes Dateisystem oder bei der Erstellung des Dateisystems einstellen. Beispiel:
# zfs set primarycache=metadata tank/datab # zfs create -o primarycache=metadata tank/newdatab |
Bei einigen Datenbank-Umgebungen kann es von Vorteil sein, Benutzerdaten nicht im Cache zu speichern. Sie können selbst bestimmen, ob das Einstellen von Cache-Eigenschaften für Ihre Umgebung sinnvoll ist.
Weitere Informationen finden Sie im Solaris ZFS - Administrationshandbuch.
Mit den Eigenschaften zur Speicherplatznutzung können Sie die Speicherplatzbelegung für Klone, Dateisysteme und Volumes, jedoch nicht die Speicherplatzbelegung für Snapshots ermitteln. Folgende Eigenschaften stehen zur Verfügung:
usedbychildren – Gibt den Speicherplatz an, der von untergeordneten Elementen dieses Datasets beansprucht wird, und der beim Löschen dieser untergeordneten Elemente frei werden würde. Die Abkürzung für die Eigenschaft lautet usedchild
usedbydataset – Gibt den Speicherplatz an, der vom Dataset selbst beansprucht wird und der beim Löschen des Datasets und vorherigem Löschen aller Snapshots und Entfernen von refreservation frei werden würde. Die Abkürzung für die Eigenschaft lautet usededds
usedbyrefreservation – Gibt den von einem refreservation-Set auf diesem Dataset beanspruchten Speicherplatz an, der beim Entfernen von refreservation frei werden würde. Die Abkürzung für die Eigenschaft lautet usedrefreserv
usedbysnapshots – Gibt den von Snapshots dieses Datasets beanspruchten Speicherplatz an. Insbesondere geht es dabei um den Speicherplatz, der beim Löschen aller Snapshots des Datasets frei werden würde. Beachten Sie, dass es sich dabei nicht einfach um die Summe der used Eigenschaften der Snapshots handelt, da Speicherplatz von mehreren Snapshots geteilt werden kann. Die Abkürzung für die Eigenschaft lautet usedsnap
Diese neuen Eigenschaften teilen den Wert der used Eigenschaft in die verschiedenen Elemente auf, die Speicherplatz beanspruchen. Genauer betrachtet wird der Wert der used Eigenschaft folgendermaßen aufgeteilt:
used property = usedbychildren + usedbydataset + usedbyrefreservation + usedbysnapshots |
Sie können diese Eigenschaften mit dem Befehl zfs list - o space genauer betrachten. Beispiel:
# zfs list -o space NAME AVAIL USED USEDSNAP USEDDS USEDREFRESERV USEDCHILD pool 33.2G 72K 0 21K 0 51K rpool 27.0G 6.27G 20.5K 97K 0 6.27G rpool/ROOT 27.0G 4.73G 0 21K 0 4.73G rpool/ROOT/zfsBE 27.0G 4.73G 97.5M 4.63G 0 0 rpool/dump 27.0G 1.00G 16K 1.00G 0 0 rpool/export 27.0G 60K 16K 23K 0 21K rpool/export/home 27.0G 21K 0 21K 0 0 rpool/swap 27.5G 553M 0 41.5M 512M 0 |
In dieser Version werden Snapshots in der Ausgabe von zfs list nicht berücksichtigt. Die Pool-Eigenschaft listsnaps steuert, ob Snapshot-Informationen mit dem Befehl zfs list angezeigt werden. Wenn Sie den Befehl zfs list -t snapshots verwenden, werden Snapshot-Informationen angezeigt. Der Standardwert ist off, Snapshot-Informationen werden also standardmäßig nicht angezeigt.
Wiederherstellung von ZFS Log Device: Im Release Solaris 10 10/09 erkennt ZFS Intent Log-Fehler im Befehl zpool status. Diese Fehler werden auch von FMA gemeldet. Ein Intent-Protokoll-Fehler kann sowohl mit ZFS als auch mit FMA behoben werden.
Wenn das System beispielsweise plötzlich herunterfährt, bevor synchrone Schreibvorgänge auf einem Pool mit separatem Log Device abgeschlossen wurden, werden in der Ausgabe von zpool status alle Fehlermeldungen angezeigt, die sich auf Intent Log beziehen. Weitere Informationen zur Behebung von Problemen mit dem Log Device finden Sie im Solaris ZFS - Administrationshandbuch.
ZFS ACL Sets verwenden: In der Version Solaris 10 10/09 können ACLs im NFSv4-Stil in Sets angewendet werden, sodass verschiedene ACL-Berechtigungen nicht einzeln angewendet werden müssen. Die folgenden ACL-Sets stehen zur Verfügung:
full_set = Alle Berechtigungen
modify_set = Alle Berechtigungen außer write_acl und write_owner
read_set = read_data, read_attributes, read_xattr und read_acl
write_set = write_data, append_data, write_attributes und write_xattr
Einige ACL-Sets sind vordefiniert und können nicht bearbeitet werden.
Weitere Informationen zu diesen Verbesserungen und Änderungen entnehmen Sie bitte dem Dokument Solaris ZFS - Administrationshandbuch.
Informationen zu verwandten ZFS-Leistungsmerkmalen finden Sie in den folgenden Abschnitten über Neuerungen.
Der LDAP-Namensdienst wurde verbessert. Er unterstützt nun die Funktionen Kontosperrung und Passwortablauf. Hierfür werden die Daten in der Schattendatenbank herangezogen, die auf einem konfigurierten LDAP-Server gespeichert ist. Durch diese Unterstützung können das Dienstprogramm passwd(1) und die PAM-Module pam_unix_*(5) nahezu gleich arbeiten, wenn es um die Verarbeitung von Kontensperren und Passwortablauf für lokale Konten und entfernte LDAP-Benutzerkonten geht. Neben der Verwendung des Moduls pam_ldap(5) haben Sie daher weitere Möglichkeiten, Passwortrichtlinien und Kontenkontrolle für den LDAP-Namensdienst zu implementieren. Mit pam_unix_*(5) können dieselben konsistenten Ergebnisse erzielt werden wie mit dem Datei- und nisplus -Namensdienst.
Weitere Informationen entnehmen Sie bitte dem Dokument System Administration Guide: Naming and Directory Services (DNS, NIS, and LDAP) .
Das SunVTSTM 7.0 Patch Set 6 ist in die Version Solaris 10 10/09 integriert. Das SunVTS 7.0 Patch Set 6 entspricht einem konventionellen Architekturmodell mit drei Tiers. Zum Patch Set gehört eine browserbasierte Benutzerschnittstelle (BUI), ein Middle Server auf Basis von Java-Technologie und ein Diagnoseagent. Zu den Verbesserungen an der SunVTS-Infrastruktur gehören:
Unterstützung für zu vtsk hinzugefügte Solid State Drives (SSD)
Standardebene für logische Tests, die sich an die Größe der Systemkonfiguration anpassen lässt
Mindest- oder Höchstwerte oder Hard Limit für Reserve-Swap in vtsk
Möglichkeit, die Folge der logischen Testausführung zu ändern
In Version Solaris 10 10/09 wurde die Speicher- und CPU-Diagnose wie folgt verbessert:
Coverage für X86-L3$ in 13sramtest
Verbesserte Tests vmemtest, fputest und l2sramtest ermöglichen Callbacks, um Swap-Anforderungen zurückzugeben
Optimierte logische Tests für x86-Systeme und Systeme auf Basis von UltraSPARC® T2-Prozessor
In der Version Solaris 10 10/09 wurde die E/A-Diagnose wie folgt erweitert:
disktest kann im schreibgeschützten Modus ausgeführt werden, wenn die Option Schreiben oder Lesen nicht verwendet werden kann
Der logische Plattentest wurde für x86, UltraSPARC T2-Prozessor und UltraSPARC IV-Systeme optimiert.
Disktest-Optionen wurden automatisiert. Sie führen Solid State Drive-(SSF-) und Hard Disk Drive-(HDD-)Aufgaben in Disk LT aus.
Die Auswahl von Testoptionen wurde in netlbtest automatisiert.
In disktest und iobustest werden sichere und unsichere Testoptionen unterstützt.
In Version Solaris 10 10/09 wurde die folgende Installationsfunktion hinzugefügt.
Ab Solaris 10 10/09 werden SVR4 Packing-Befehle schneller ausgeführt. Durch diese Verbesserung sind die Solaris-Installationstechnologien wie Neuinstallationen, Aktualisierungen, Live Upgrades und Zone-Installationen wesentlich leistungsfähiger.
In Solaris 10 10/09 wurde das folgende neue Leistungsmerkmal bezüglich Systemressourcen hinzugefügt.
Durch die Verbesserung der Standard-Patch-Dienstprogramme von Solaris 10 wird die Leistungsfähigkeit der Patching-Werkzeuge in Systemen mit mehreren Zonen erhöht, da paralleles Patching der nicht globalen Zonen möglich wird. In Versionen vor Solaris 10 10/09 wird dieses Leistungsmerkmal im Patch für Patch-Dienstprogramme 119254-66, einer neueren Revision von SPARC und 119255-66 oder einer neueren Revision für x86 bereitgestellt. Die globale Zone wird weiterhin gepatcht, bevor die nicht-globalen Zonen gepatcht werden.
Weitere Informationen finden Sie hier:
Wenn Sie den Sun xVM Hypervisor in einem Solaris-Betriebssystem einsetzen, werden vollständig virtualisierte Gast-Domains als Hardware-unterstützte virtuelle Rechner (HVMs) angesehen. HVM- und PVIO-Gäste bieten durch die Verwendung von PV-Treibern bessere Leistungen.
Im Lieferumfang von Versionen ab Solaris 10 10/08 sind die Solaris PV-Treiber enthalten. Für Solaris 10 5/08 ist ein Patch verfügbar.
Weitere Informationen finden Sie unter "Solaris 10-Versionen" im Abschnitt Guests That Are Known to Work in System Administration Guide: Virtualization Using the Solaris Operating System. In diesem Handbuch werden auch die HVM-fähigen Rechner erörtert.
Die Version Solaris 10 10/09 wurde um folgende Geräteverwaltungsfunktionen erweitert.
Unter FMRI svc:/network/iscsi/initiator:default wird ein neuer SMF-Dienst eingeführt, der die Verfügbarkeit von iSCSI-Geräten steuert. Der SMF-Dienst steuert auch die Terminierung für die Erkennung und Aufzählung von iSCSI-Geräten beim Starten des Betriebssystems.
Weitere Dienste, die von der Verfügbarkeit von iSCSI-Geräten abhängen, können ihre Abhängigkeit von diesen iSCSI Initiator-Diensten anpassen. Weitere Informationen finden Sie auf der Manpage iscsi(7D).
Ab Solaris 10 10/09 unterstützt Solaris MPxIO die LSI 6180 Controller-basierten Speicher-Arrays.
In Solaris 10 10/09 wurde das folgende Systemleistungsmerkmal hinzugefügt.
Das Callout-Subsystem wurde neu konzipiert und umfasst die folgenden Leistungsmerkmale:
Verbesserung von Leistung und Skalierbarkeit:
Datenstrukturen pro CPU, um Mutex-Konflikte zu minimieren
Callout-Verarbeitung pro CPU, um Skalierbarkeit zu verbessern
Ereignisbasierte Implementierung zur Vermeidung von Polling-Overhead
Hochauflösende Timer für verbesserte Funktionalität Viele API-Aufrufe verwenden hochauflösende Timer. Es kommt nicht zu Latenz, da das System die angegebenen Intervalle abrundet. Die Timer umfassen häufig verwendete Anrufe wie poll() und nanosleep().
Verbesserungen der Überwachung:
Umfangreicher Optionssatz für den MDB dcmd-Callout
Neue MDB dcmd calloutid
Neuer Callout kstats
In Solaris 10 10/09 wurden die folgenden Treiber-Funktionen und Verbesserungen implementiert.
In Solaris 10 10/09 wurden die Solaris 10GbE-Treiber entscheidend verbessert. Beim nxge-10GbE-Treiber wurden folgende Verbesserungen durchgeführt:
Der Datendurchsatz beim TCP-Empfang wurde von 40% bei 8 Verbindungen auf über 90% für 32, 100, 400 und 1000 Verbindungen verbessert.
Der Datendurchsatz bei der TCP-Übertragung wurde von fast 80% bei 8 Verbindungen auf über 100% beim Testen zahlreicherer Verbindungen verbessert.
Der Datendurchsatz bei der UDP-Übertragung wurde von 80% für 64-Byte-Nachrichten auf über 160% für 8-KB-Nachrichten verbessert.
Beim ixgbe-Treiber für x86-Systeme wurden folgende Verbesserungen durchgeführt:
Der Datendurchsatz bei der TCP-Übertragung wurde auf fast 100% für 8 und mehr Verbindungen verbessert.
TCP-Empfangsraten haben eine 10Gb-Verbindungsrate für 8, 32, 100, 400 und 1000 Verbindungen.
Der maximale Datendurchsatz bei der UDP-Übertragung wurde auf eine 10Gb-Verbindungsrate verdoppelt.
Ping-Pong-Datenraten wurden von 2x auf 3x bei einer Erhöhung der Nachrichtengröße von 64 Byte auf 512 Byte verbessert.
Die verbesserten Datenraten der Solaris 10GbE-Treiber garantieren optimale Leistung auf 10-Gigabit-Netzwerken.
Die Version Solaris 10 10/09 beinhaltet folgende Verbesserungen in Bezug auf InfiniBand:
InfiniBand Host-Kanal-Adapter (Host Channel Adapter, HCA) – Version Solaris 10 10/09 beinhaltet einen deutlich leistungsfähigeren InfiniBand-Treiber für Mellanox ConnectX HCA. Mit dem InfiniBand-Treiber können InfiniBand-Protokolle über die beiden InfiniBand-Fabrikate mit doppelter Datenrate (Double Data Rate, DDR) und vierfacher Datenrate (Quad Data Rate, QDR) verarbeitet werden. Der Treiber ist außerdem in die Solaris FMA-Struktur für die Fehlerverwaltung integriert und unterstützt eine einfache Anordnung auf SPARC-Systemen.
InfiniBand-Transportstruktur (InfiniBand Transport Framework, IBTF) – Version Solaris 10 10/09 beinhaltet eine entscheidend verbesserte IBTF-Implementierung, die eine erweiterte Unterstützung RDMA-basierter InfiniBand-Protokolle in Solaris bietet. InfiniBand für SPARC unterstützt nun auch die Dynamische Rekonfiguration (DR) über PCI.
Internetprotokoll über InfiniBand (Internet Protocol over InfiniBand, IPoIB) – Version Solaris 10 10/09 beinhaltet einen entscheidend verbesserten IPoIB-Treiber (ibd), der die Internet-RFCs 4391 und 4392 unterstützt. In Version Solaris 10 10/09 unterstützt der IPoIB-Treiber die Vorgangsweise Benutzerdatagramm (User Datagram, UD) sowie IPv4- und IPv6-Adressierung und nutzt Hardware-Auslagerungen im ConnectX HCA für einen verbesserten Datendurchsatz bei niedrigerer CPU-Nutzung. IPoIB-UD ermöglicht die Verwendung aller TCP/IP-Anwendungsprotokolle wie SSH, HTTP, FTP, NFS und iSCSI über die beiden InfiniBand-Fabrikate mit doppelter Datenrate (Double Data Rate, DDR) und vierfacher Datenrate (Quad Data Rate, QDR). Der neue IPoIB-Treiber für SPARC- und x86-Plattformen bietet im Vergleich zu dem vorher verfügbaren Treiber eine deutlich verbesserte Leistungsfähigkeit.
Direktes Socket-Protokoll (Sockets Direct Protocol, SDP) – Version Solaris 10 10/09 beinhaltet einen deutlich verbesserten SDP-Treiber und eine sockfs -Implementierung. SDP ist ein Transportprotokoll, das über die Infiniband-Transportstruktur (Infiniband Transport Framework, IBTF) gelagert ist. SDP ist eine Standardimplementierung, die auf Annex 4 der Infiniband Architecture Specification Vol1 basiert. Das SDP-Protokoll bietet zuverlässigen Byte-Strom, eine kontrollierte bidirektionaler Datenübertragung, die dem Übertragungssteuerungsprotokoll (Transmission Control Protocol, TCP) ähnelt. InfiniBand-Programmierer verwenden SDP über die libsdp C-Bibliothek, die eine socket-basierte SOCK_STREAM-Schnittstelle zu Anwendungsprogrammen unterstützt. Das SDP-Protokoll unterstützt einen problemlosen Abschluss, IPv4- und IPv6-Adressierung, das verbindende/akzeptierende Verbindungsmodell, Out-of-Band (OOB)-Daten und übliche Socket-Optionen. Das SDP-Protokoll unterstützt außerdem Kernel-Umgehungs-Datenübertragungen und Datenübertragungen aus Puffern des übergeordneten Protokolls (Upper-Layer-Protocol, ULP) zum Empfang von ULP-Puffern.
Verlässliche Datagramm-Sockets (Reliable Datagram Sockets, RDS) – Version Solaris 10 10/09 beinhaltet einen verbesserten RDSv1-Treiber, der für die Verwendung mit Oracle RAC (Real Application Clusters) 10gR2 zertifiziert ist.
Programmierbibliothek zum direkten Zugriff auf Benutzerebene (User-Level Direct Access Programming Library, uDAPL) – Version Solaris 10 10/09 beinhaltet eine aktualisierte uDAPL über InfiniBand-API, die der neuesten Spezifikation zur kollaborativen Direktzugriff-Transport (Direct Access Transport, DAT)-uDAPL 1.2 entspricht.
Der Treiber mpt_sas(7D) unterstützt die physischen Geräte SAS, SATA, SMP und virtuellen Geräte über die integrierte RAID-Funktion. Die neue Architektur für SAS-Treiber unterstützt die folgenden Leistungsmerkmale:
SAS Initiator Ports (iports)
dynamische Neukonfiguration von SAS-, SATA- und SMP-Zielen
FWARC 2008/013-kompatible Gerätedarstellung
Multipathing
Weitere Informationen finden Sie auf der Manpage mpt_sas(7D).
In Solaris 10 10/09 werden neue Chipsets wie bcm5716c und bcm5716c unterstützt.
In Solaris 10 10/09 ist eine Tabelle für die Neuzuordnung von Interrupts vorhanden, die Interrupts mindestens auf der Intel Nehalem-Plattform isoliert und sicherstellt, dass Geräte nur autorisierte Interrupts verwenden und Interrupts auf das richtige Ziel ausgerichtet sind. Mit diesem Leistungsmerkmal wird die Reliability, Availability und Serviceability (RAS) des Systems verbessert.
In der neuen Version werden SATA-Bandgeräte vom AHCI-Treiber unterstützt. Benutzer können einen Anschluss zum SATA-Bandlaufwerk herstellen oder mithilfe des SATA- oder eSATA-Kabels ein Hot-Plug des SATA-Bandlaufwerks am AHCI-Controller durchführen. Maßnahmen zur Fehlerbehandlung wurden für die SATA ATAPI-Geräte (einschließlich CD, DVD oder Band) ebenfalls optimiert.
Weitere Informationen finden Sie auf der Manpage ahci(7D).
Der Host-Bus-Adaptertreiber mr_sasdes MegaRAID SAS2.0-Controllers ist ein SCSA-kompatibler Nexus-Treiber, der die Controller-Serien LSI MegaRAID SAS 92xx, StorageTek 6Gb/s SAS RAID HBA und LSI MegaRAID SAS 92xx unterstützt.
Zu den unterstützten RAID-Funktionen zählen:
RAID-Ebenen·0, 1, 5 und 6 sowie RAID-Spans 10, 50 und 60
Online-Kapazitätserweiterung (OCE)
Online-Migration auf RAID-Ebene (RLM)
Automatische Betriebswiederaufnahme nach Stromausfall während des Array-Wiederaufbaus bzw. der Array-Rekonstruktion (OCE oder RLM)
Konfigurierbare Stripe-Kapazität von bis zu 1 MB
Möglichkeit der Konsistenzüberprüfung auf Integrität von Hintergrunddaten
Patrol-Read für das Überprüfen und Reparieren von Datenträgern
Unterstützung für bis zu 64 logische Laufwerke
Unterstützung für bis zu 64 TB LUNs
Automatische Neuerstellung sowie globale und spezielle Hotspare-Unterstützung
Ab Solaris 10 10/09 unterstützt der ixgbe-Treiber das Chipset Intel 82599 10Gb PCI Express Ethernet Controller.
Ab Solaris 10 10/09 unterstützt der ixgbe-Treiber das Chipset Intel 82598 10Gb PCI Express Ethernet Controller.
In Solaris 10 10/09 wurden die folgenden Leistungsmerkmale und Verbesserungen für Freeware implementiert.
Die Version Solaris 10 10/09 enthält die neueste Version des Netzwerkzeitprotokolls, die erweiterte Authentifizierung, IPv6 und bessere Systemleistung unterstützt. Weitere Informationen finden Sie auf der Manpage ntpdate(1M).
In Solaris 10 10/09 werden die PostgreSQL-Versionen 8.1.17, 8.2.13 und 8.3.7 unterstützt.
In Solaris 10 10/09 wird Samba 3.0.35 unterstützt.