Für die Version Sun Cluster 3.1 gelten folgende Einschränkungen:
Weitere bekannte Probleme bzw. Einschränkungen finden Sie im Abschnitt Bekannte Probleme und Programmierfehler.
Multihost-Band, CD-ROM und DVD-ROM werden nicht unterstützt.
Alternate Pathing (AP) wird nicht unterstützt.
Speichergeräte mit mehr als einem Pfad von einem bestimmten Cluster-Knoten zum Gehäuse werden nicht unterstützt, mit Ausnahme der folgenden Speichergeräte:
Sun StorEdgeTM A3500: Es werden jeweils zwei Pfade zu zwei Knoten unterstützt
Alle Geräte, die Sun StorEdge Traffic Manager unterstützen
EMC-Speichergeräte, die EMC PowerPath-Software verwenden
Wenn Sie einen Sun EnterpriseTM 420R-Server mit einer PCI-Karte in Steckplatz J4701 verwenden, muss die Versionsnummer der Hauptplatinen-Teilenummer 15 oder höher (501-5168-15 oder höher) sein. Die Teile- und Versionsnummer der Hauptplatine finden Sie an dem Platinenrand, der dem PCI-Steckplatz 1 am nächsten liegt.
Auf Clustern, die UDWIS E/A-Karten auf Steckplatz 0 eines Sun Enterprise 10000-Servers verwendeten, wurden Systemabstürze festgestellt. Installieren Sie auf diesen Servern keine UDWIS I/=O-Karte auf Steckplatz 0 einer Platine.
Wenn Sie die Anzahl der Knotenverbindungen zu einem Quorum-Gerät erhöhen oder heruntersetzen, wird der Quorum-Stimmenzähler nicht automatisch neu berechnet. Sie können die Quorum-Stimmen korrigieren, indem Sie alle Quorum-Geräte entfernen und dann der Konfiguration wieder hinzufügen.
SunVTSTM wird nicht unterstützt.
IPv6 wird nicht unterstützt.
RMS-Transporttypen (Remote Shared Memory) werden in der Dokumentation erwähnt, jedoch nicht unterstützt. Wenn Sie die RSMAPI verwenden, geben Sie dlpi als Transporttyp an.
Die SCI-Schnittstelle (SBus Scalable Coherent Interface) wird nicht als Cluster-Interconnect unterstützt. Die PCI-SCI-Schnittstelle wird jedoch unterstützt.
Logische Netzwerkschnittstellen sind der Verwendung durch Sun Cluster-Software vorbehalten.
Client-Anwendungen, die auf Cluster-Knoten ausgeführt werden, sollten keinen logischen IP-Adressen eines HA-Datendienstes zugeordnet werden. Während eines Failover können diese logischen IP-Adressen ausfallen, wodurch der Client die Verbindung verliert.
Wenn Sie von VERITAS Volume Manager (VxVM) 3.2 zu 3.5 aufrüsten, steht die CVM-Funktion (Cluster Volume Manager) erst dann zur Verfügung, wenn Sie den CVM-Lizenzschlüssel für Version 3.5 installiert haben. Unter VxVM 3.5 aktiviert der CVM-Lizenzschlüssel für Version 3.2 CVM nicht und muss zu einem CVM-Lizenzschlüssel für Version 3.5 aufgerüstet werden.
In Solstice DiskSuite/Solaris Volume Manager-Konfigurationen, die Vermittler verwenden, muss die Anzahl der für einen Plattensatz konfigurierten Hosts genau zwei betragen.
DiskSuite Tool (Solstice DiskSuite metatool) und das Enhanced Storage-Modul von Solaris Management Console (Solaris Volume Manager) sind nicht mit der Sun Cluster 3.1-Software kompatibel.
Unter VxVM 3.2 oder höher kann Dynamic Multipathing (DMP) während der VXVM-Installation nicht über den scvxinstall-Befehl deaktiviert werden. Dieses Verfahren wird im Kapitel “Installing and Configuring VERITAS Volume Manager” in Sun Cluster Software Installation Guide for Solaris OS beschrieben. Die Verwendung von Veritas Dynamic Multipathing wird in folgenden Konfigurationen unterstützt:
Ein einziger E/A-Pfad pro Knoten zum gemeinsam genutzten Cluster-Speicher.
Eine unterstützte Multipathing-Lösung (Sun Traffic Manager, EMC PowerPath, Hiatchi HDLM), die mehrere E/A-Pfade pro Knoten zum gemeinsam genutzten Cluster-Speicher verwaltet.
Einfache Root-Plattengruppen (rootdg erstellt auf einem einzigen Root-Plattenbereich) werden mit VxVM unter Sun Cluster 3.1-Software nicht unterstützt.
RAID 5-Software wird nicht unterstützt.
Quoten werden auf Cluster-Dateisystemen nicht unterstützt.
Sun Cluster 3.1 unterstützt die Verwendung des Schleifendateisystems (Loopback File System, LOFS) auf Cluster-Knoten nicht.
Der Befehl umount -f verhält sich genauso wie der umount-Befehl ohne die -f-Option. Er unterstützt kein erzwungenes Aushängen.
Der Befehl unlink( 1M) wird bei nicht leeren Verzeichnissen nicht unterstützt.
Der Befehl lockfs -d wird nicht unterstützt. Verwenden Sie lockfs -n als Abhilfemaßnahme.
Das Cluster-Dateisystem unterstützt keine Dateisystemfunktionen der Solaris-Software, die einen Kommunikationsendpunkt im Dateisystem-Namensraum setzen. Daher können Sie zwar ein UNIX-Domain-Socket erstellen, dessen Name ein Pfadname zum Cluster-Dateisystem ist. Dieses Socket würde jedoch kein Knoten-Failover überstehen. Zudem wäre auf die in einem Cluster-Dateisystem erstellten FIFOs oder benannten Datenaustauschkanäle kein globaler Zugriff möglich. Auch fattach kann dann von keinem anderen als dem lokalen Knoten aus verwendet werden.
Der Befehl wird nicht zum Ausführen von Binärdateien außerhalb des Cluster-Dateisystems unterstützt, die mithilfe der Option forcedirectio eingehängt werden.
Sie können ein Cluster-Dateisystem nicht mit der zum Zeitpunkt der Wiedereinhängung hinzugefügten Einhängeoption directio wieder einhängen.
Die Einhängeoption directio kann nicht für eine einzelne Datei unter Verwendung von directio eingestellt werden.
Die folgenden VxFS-Funktionen werden in einer Sun Cluster 3.1-Konfiguration nicht unterstützt.
Quick I/O
Schnappschüsse
Speicher-Checkpoints
Cache-Berater können verwendet werden, doch ihre Wirkung kann nur auf dem gegebenen Knoten beobachtet werden.
VERITAS CFS (erfordert VERITAS-Cluster-Funktion und VCS)
Alle anderen in einer Cluster-Konfiguration unterstützten VxFS-Funktionen und -Optionen werden von der Sun Cluster 3.1-Software unterstützt. In der VxFS-Dokumentation und in der Online-Dokumentation finden Sie weitere Einzelheiten zu den VxFS-Optionen, die in einer Cluster-Konfiguration nicht unterstützt werden.
Die folgenden VxFS-spezifischen Einhängeoptionen werden in einer Sun Cluster 3.1-Konfiguration nicht unterstützt.
convosync (O_SYNC konvertieren)
mincache
qlog, delaylog, tmplog
Informationen über das Verwalten von VxFS-Cluster-Dateisystemen in einer Sun Cluster-Konfiguration finden Sie unter “Administering Cluster File Systems” in Sun Cluster System Administration Guide for Solaris OS.
In diesem Abschnitt werden alle Einschränkungen für die Verwendung von IP Network Multipathing aufgeführt, die nur in einer Sun Cluster 3.1-Umgebung gelten, bzw. die von den in der Solaris-Dokumentation für IP Network Multipathing enthaltenen Informationen abweichen.
IPv6 wird nicht unterstützt.
Alle öffentlichen Netzwerkadapter müssen sich in IP Network Multipathing-Gruppen befinden.
In der Datei /etc/default/mpathd darf TRACK_INTERFACES_ONLY_WITH_GROUPS nicht von “Yes” zu “No” geändert werden.
Die meisten Verfahren, Richtlinien und Einschränkungen, die in der Solaris-Dokumentation für IP Network Multipathing angegeben sind, gelten auch in einer Cluster- bzw. Nicht-Cluster-Umgebung. Weitere Informationen über IP Network Multipathing-Einschränkungen entnehmen Sie bitte der entsprechenden Solaris-Dokumentation.
Version des Betriebssystems |
Anweisungen siehe |
---|---|
Solaris 8-Betriebsumgebung |
IP Network Multipathing-Verwaltungshandbuch |
Solaris 9-Betriebsumgebung |
“IP Network Multipathing-Themen” im Handbuch Systemverwaltung: IP-Serien |
Konfigurieren Sie Cluster-Knoten nicht als Router (Gateways). Wenn das System abstürzt, finden die Clients keinen alternativen Router und können nicht wieder hergestellt werden.
Konfigurieren Sie keine Cluster-Knoten als NIS or NIS+-Server. Cluster-Knoten können jedoch NIS oder NIS+-Clients sein.
Verwenden Sie keine Sun Cluster-Konfiguration, um einen hoch verfügbaren Start- oder Installationsdienst auf Client-Systemen einzurichten.
Verwenden Sie keine Sun Cluster-Konfiguration zum Einrichten eines rarpd-Dienstes.
Wenn Sie einen RPC-Dienst auf dem Cluster installieren, darf der Dienst folgende Programmnummern nicht verwenden: 100141, 100142 und 100248. Diese Nummern sind den Sun Cluster-Dämonen rgmd_receptionist, fed und pmfd vorbehalten. Wenn der von Ihnen installierte RPC-Dienst ebenfalls eine dieser Programmnummern verwendet, müssen Sie ihn dahingehend ändern, dass er eine andere Programmnummer verwendet.
Derzeit kann Sun StorEdge Network Data Replicator (SNDR) nur zusammen mit HAStorage verwendet werden. Diese Einschränkung gilt nur für die Ressourcengruppe, die den logischen Host enthält, den SNDR zum Replizieren verwendet. Anwendungsressourcengruppen können HAStoragePlus zusammen mit SNDR verwenden. Sie können das Failover-Dateisystem zusammen mit HAStoragePlus und SNDR verwenden, indem Sie HAStorage für die SNDR-Ressourcengruppe und HAStoragePlus für die Anwendungsressourcengruppe einsetzen, wobei die HAStorage- und HAStoragePlus-Ressourcen auf das gleiche zugrundeliegende DCS-Gerät zeigen. Derzeit wird eine Korrekturversion entwickelt, die den Einsatz von SNDR zusammen mit HAStoragePlus ermöglicht.
Die Ausführung von Prozessplanungsklassen mit hoher Priorität wird auf Cluster-Knoten nicht unterstützt. Prozesse, die in der Time-Sharing-Planungsklasse mit hoher Priorität ausgeführt werden sowie Prozesse, die in der Echtzeit-Planungsklasse ausgeführt werden, sind für die Ausführung auf Cluster-Knoten nicht geeignet. Die Sun Cluster-Software beruht auf Kernel-Threads, die in der Echtzeit-Planungsklasse nicht ausgeführt werden können. Time-Sharing-Prozesse, die mit einer höheren als der normalen Priorität ausgeführt werden, oder Echtzeitprozesse können verhindern, dass die Sun Cluster-Kernel-Threads erforderliche CPU-Zyklen erhalten.
Die Sun Cluster 3.1-Software kann nur für diejenigen Datendienste eingesetzt werden, die entweder mit dem Sun Cluster-Produkt geliefert werden oder mit der Sun Cluster-Datendienst-API eingerichtet werden.
Die Sun Cluster-Software verfügt derzeit über keinen HA-Datendienst für das sendmail(1M)-Subsystem. Das sendmail-Subsystem kann auf den einzelnen Cluster-Knoten ausgeführt werden. Die sendmail-Funktionalität ist jedoch nicht hoch verfügbar. Dies gilt auch für die Funktionalität zum Senden und Routen von Mail, die Warteschlange und Wiederholung.
Wenn Sie Sun Cluster HA für Oracle mit Oracle 10g verwenden, sollten Sie die Oracle-Binärdateien nicht in einem hoch verfügbaren lokalen Dateisystem installieren. Sun Cluster HA für Oracle unterstützt keine derartige Konfiguration. Sie können jedoch Daten-, Protokoll- und Konfigurationsdateien in einem hoch verfügbaren Dateisystem installieren.
Wenn im Cluster-Dateisystem Oracle 10g-Binärdateien installiert sind, werden auf der Systemkonsole möglicherweise Fehlermeldungen für den Oracle cssd-Dämon angezeigt, wenn ein Knoten gebootet wird. Wenn das Cluster-Dateisystem eingehängt ist, werden diese Meldungen nicht mehr angezeigt.
Diese Fehlermeldungen enthalten folgenden Wortlaut:
INIT: Command is respawning too rapidly. Check for possible errors. id: h1 "/etc/init.d/init.cssd run >/dev/null 2>&1 >/dev/null" |
Für Sun Cluster HA für Oracle ist der Oracle cssd-Dämon nicht erforderlich. Daher können Sie diese Fehlermeldungen ignorieren.
Der Datendienst Sun Cluster HA für Oracle 3.0 kann unter der Sun Cluster 3.1-Software nur zusammen mit den folgenden Versionen des Solaris-Betriebssystens ausgeführt werden:
Solaris 8, 32-Bit-Version
Solaris 8, 64-Bit-Version
Solaris 9, 32-Bit-Version
Der Datendienst Sun Cluster HA für Oracle 3.0 kann nicht mit der Sun Cluster 3.1-Software unter der 64-Bit-Version von Solaris 9 ausgeführt werden.
Beachten Sie die Dokumentation zur Option Oracle Parallel Fail Safe/Real Application Clusters Guard von Oracle Parallel Server/Real Application Cluster, da Sie die Hostnamen nach der Installation der Sun Cluster-Software nicht mehr ändern können.
Weitere Informationen über die Beschränkungen bei Hostnamen und Knotennamen finden Sie in der Dokumentation von Oracle Parallel Fail Safe/Real Application Clusters Guard.
Wenn der VERITAS NetBackup-Client ein Cluster ist, kann nur ein logischer Host als Client konfiguriert werden, weil nur eine bp.conf-Datei vorhanden ist.
Wenn der NetBackup-Client ein Cluster ist und einer der logischen Hosts im Cluster als NetBackup-Client konfiguriert ist, kann NetBackup von den realen Hosts keine Sicherungskopien herstellen.
Im Cluster, auf dem der Master-Server läuft, ist der Master-Server der einzige logische Host, von dem Sicherheitskopien erstellt werden können.
An den Master-Server können keine Sicherungsmedien angeschlossen werden, weshalb ein oder mehrere Medienserver erforderlich sind.
In einer Sun Cluster-Umgebung wird Robotersteuerung nur auf Medienservern und nicht auf dem auf Sun Cluster laufenden NetBackup-Master-Server unterstützt.
Ein Sun Cluster-Knoten darf nicht gleichzeitig NFS-Client von einem über Sun Cluster HA for NFS exportierten Dateisystem sein, das auf einem Knoten im selben Cluster unterstützt wird. Ein derartiges übergreifendes Einhängen von Sun Cluster HA for NFS ist nicht zulässig. Verwenden Sie das Cluster-Dateisystem, damit Cluster-Knoten Dateien gemeinsam nutzen können.
Anwendungen, die lokal im Cluster laufen, dürfen Dateien in einem über NFS exportierten Dateisystem nicht sperren. Sonst könnten lokale Sperren (z. B. flock(3UCB) oder fcntl(2)) die Möglichkeit zum Neustarten von Lock Manager (lockd) stören. Beim Neustart könnte einem gesperrten lokalen Prozess eine Sperre gewährt werden, die eigentlich einem Remote-Client vorbehalten sein sollte. Das würde ein unvorhersehbares Verhalten verursachen.
Sun Cluster HA for NFS erfordert, dass alle NFS-Client-Einhängungen “harte” Einhängungen sind.
Sun Cluster 3.1 unterstützt Secure NFS oder die Verwendung von Kerberos mit NFS, genauer gesagt, die Optionen secure und kerberos des Subsystems share_nfs(1M), nicht. Allerdings unterstützt die Sun Cluster 3.1-Software die Verwendung sicherer Ports für NFS. Hierfür wird der /etc/system-Datei der Eintrag set nfssrv:nfs_portmon=1 auf den Cluster-Knoten hinzugefügt.
Verwenden Sie nicht NIS für Benennungsdienste in einem Cluster, auf dem Sun Cluster HA für SAP liveCache läuft, da der NIS-Eintrag nur verwendet wird, wenn Dateien nicht verfügbar sind.
Weitere Verfahrensinformationen über die mit dieser Beschränkung zusammenhängenden Passwortanforderungen von nssswitch.conf finden Sie im Abschnitt “Preparing the Nodes and Disks” in Sun Cluster Data Service for SAP liveCache Guide for Solaris OS.