Die folgenden bekannten Probleme und Programmierfehler betreffen den Betrieb der Sun Cluster 3.1 9/04-Version.
Problemübersicht: scvxinstall erstellt falsche vfstab-Einträge, wenn es sich um ein Multipath-Boot-Gerät handelt.
Abhilfemaßnahme: Führen Sie scvxinstall mit ausgewählter Einkapselung aus. Wenn folgende Meldung angezeigt wird, drücken Sie Strg-C, um das Neubooten abzubrechen:
Dieser Knoten wird in 20 Sekunden neu gebootet. Drücken Sie Strg-C, um abzubrechen. |
Bearbeiten Sie den vfstab-Eintrag dahin gehend, dass /global/.devices den Namen /dev/{r}dsk/cXtXdX anstelle des Namen /dev/did/{r}dsk verwendet. Durch die Bearbeitung dieses Eintrags erkennt VxVM ihn als Root-Platte. Führen Sie scvxinstall mit ausgewählter Einkapselung aus. Die Datei vfstab weist die erforderlichen Aktualisierungen auf. Genehmigen Sie, dass der Neustart durchgeführt wird. Die Einkapselung wird auf normale Weise fortgesetzt.
Problemübersicht: Der Datendienst Sun Cluster HA für Oracle verwendet den su-Befehl zum Starten und Stoppen der Datenbank. Unter Solaris 8 oder Solaris 9 steht der Netzwerkdienst möglicherweise nicht zur Verfügung, wenn das öffentliche Netzwerk eines Cluster-Knotens versagt.
Abhilfemaßnahme: Nehmen Sie folgende Einträge in die /etc/nsswitch.conf-Datei auf jedem Knoten auf, der ein Primärknoten der Ressourcen oracle_server oder oracle_listener sein kann:
passwd: files groups: files publickey: files project: files
Diese Einträge stellen sicher, dass sich der su-Befehl nicht auf die Namensdienste NIS/NIS+ bezieht, sodass der Datendienst während eines Netzwerkversagens korrekt gestartet und gestoppt wird.
Problemübersicht: Cluster, die ce-Adapter auf dem privaten Interconnect verwenden, können Pfad-Zeitüberschreitungen und darauf folgende Knotenabstürze erleiden, wenn ein oder mehr Cluster-Knoten mehr als vier Prozessoren haben.
Abhilfemaßnahme: Legen Sie den ce_taskq_disable-Parameter im ce-Treiber fest, indem Sie der Datei /etc/system auf allen Cluster-Knoten folgende Zeile hinzufügen.
set ce:ce_taskq_disable=1
Booten Sie anschließend die Cluster-Knoten neu. Berücksichtigen Sie beim Neubooten der Cluster-Knoten Quorum. Durch das Festlegen dieses Parameters wird sichergestellt, dass Heartbeats und andere Pakete immer im Interrupt-Kontext zugestellt werden, wodurch Pfad-Zeitüberschreitungen und die darauf folgenden Knotenabstürze verhindert werden.
Problemübersicht: Der Datendienst Sun Cluster HA für SAP liveCache verwendet den dbmcli-Befehl, um liveCache zu starten und zu stoppen. Unter Solaris 9 steht der Netzwerkdienst bei einem Versagen des öffentlichen Netzwerkes eines Cluster-Knotens möglicherweise nicht zur Verfügung.
Abhilfemaßnahme: Nehmen Sie einen der folgenden Einträge für die publickey-Datenbank in den /etc/nsswitch.conf-Dateien auf jedem Knoten auf, der ein Primärknoten für liveCache-Ressourcen sein kann:
publickey: publickey: files publickey: files [NOTFOUND=return] nis publickey: files [NOTFOUND=return] nisplus
Wenn Sie neben den in Sun Cluster Data Service for SAP liveCache Guide for Solaris OS beschriebenen Updates einen der oben genannten Einträge hinzufügen, wird sichergestellt, dass die Befehle su und dbmcli sich nicht auf die Namensdienste NIS/NIS+ beziehen. Das Umgehen der Namensdienste NIS/NIS+ stellt sicher, dass der Datendienst während eines Netzwerkversagens korrekt gestartet und gestoppt wird.
Problemübersicht: Aufgrund eines internen Fehlers schreiben einige der von Sun bereitgestellten Cluster-Agenten mit dem LOG_USER-Dienstprogramm anstelle von LOG_DAEMON Meldungen in ein Systemprotokoll (siehe syslog(3C) . Auf einem Cluster mit Standardeinstellungen für das Systemprotokoll (siehe syslog.conf(4)) werden Meldungen mit dem Schweregrad LOG_WARNING oder LOG_NOTICE, die normalerweise in das Systemprotokoll geschrieben werden, nicht ausgegeben. Dieses Problem tritt nur im Fall von Agenten-Codes auf, die als Shell-Skripts geschrieben wurden.
Abhilfemaßnahme:
Folgende Abhilfemaßnahmen stehen Agentenentwicklern beim Schreiben von Shell-Skripts zur Verfügung:
Übergeben Sie die Funktion in Shell-Skripts ausdrücklich an scds_sylog:
facility=`scha_cluster_get -O SYSLOG_FACILITY
'scds_syslog -p ${facility}.error -m "error message"
Folgende Abhilfemaßnahme steht Cluster-Administratoren zur Verfügung:
Fügen Sie auf allen Cluster-Knoten den folgenden Eintrag neben den Anfang der /etc/syslog.conf-Datei hinzu:
user.warning /var/adm/messages
Dieser Eintrag löst aus, dass user.warning-Meldungen protokolliert werden. Eine ähnliche Zeile kann für user.notice-Meldungen hinzugefügt werden. Das ist jedoch nicht notwendig und kann dazu führen, dass die Protokolle je nach den ausgeführten Auswendungen zu schnell aufgefüllt werden.
Problemübersicht: Die Anforderung für die Datei nsswitch.conf in "Preparing the Nodes and Disks" im Sun Cluster Data Service for SAP liveCache Guide for Solaris OS entspricht nicht dem Eintrag für die passwd-Datenbank. Wenn diese Anforderungen erfüllt sind, bleibt der su-Befehl möglicherweise auf jedem Knoten hängen, der die liveCache-Ressource bei einem Versagen des öffentlichen Netzwerkes unterstützt.
Abhilfemaßnahme: Stellen Sie auf jedem Knoten, der die liveCache-Ressource unterstützen kann, sicher, dass der Eintrag in der /etc/nsswitch.conf-Datei für die passwd-Datenbank folgendermaßen aussieht:
passwd: files nis [TRYAGAIN=0]
Problemübersicht: Der Befehl sccheck hängt, wenn er von mehreren Knoten gleichzeitig gestartet wird.
Abhilfemaßnahme: Starten Sie sccheck nicht von Multi-Konsolen, die die Befehle an mehrere Knoten weiterleiten. Die sccheck-Ausführungen können sich überschneiden, aber der Befehl darf nicht gleichzeitig gestartet werden.
Problemübersicht: Derzeit verwendet HA-DB-Datendienst nicht die JAVA_HOME-Umgebungsvariable. Aus diesem Grund nimmt HA-DB bei Aufruf durch den HA-DB-Datenbank die Java-Binärdateien aus /usr/bin/. Die Java-Binärdateien in /usr/bin/ müssen mit der passenden Version von Java, 1.4 und höher, verknüpft werden, damit der HA-DB-Datendienst ordnungsgemäß funktioniert.
Abhilfemaßnahme: Falls nichts gegen die Änderung der verfügbaren Standardversion spricht, führen Sie folgendes Verfahren durch. Beispielhaft wird bei dieser Abhilfemaßnahme angenommen, dass sich im Verzeichnis /usr/j2se die neueste Version von Java (z.B. 1.4 und höher) befindet.
Verfügen Sie derzeit über ein Verzeichnis mit der Bezeichung java/ im Verzeichnis /usr/? Falls ja, verschieben Sie es in ein temporäres Verzeichnis.
Verknüpfen Sie ausgehend vom Verzeichnis /usr/ die Datei /usr/bin/java und alle anderen Java-Binärdateien mit der passenden Version von Java.
# ln -s j2se java |
Falls Sie die verfügbare Standardversion nicht ändern möchten, weisen Sie die JAVA_HOME-Umgebungsvariable der entsprechenden Version von Java (J2SE 1.4 und höher) im /opt/SUNWappserver7/SUNWhadb/4/bin/hadbm-Skript zu.
Problemübersicht: Aufgrund von Fehler 4974875 wird die Datenbank ohne Spares neu initialisiert, wenn die automatische Wiederherstellung durchgeführt wird. Der genannte Fehler wurde behoben und in die HA-DB-Version 4.3 integriert. Im Fall von HA-DB 4.2 und niedrigeren Versionen befolgen Sie eines der unten beschriebenen Verfahren, um die Rollen der HA-DB-Knoten zu ändern.
Abhilfemaßnahme:
Identifizieren Sie die HA-DB-Knoten, deren Rollen nach der erfolgreich durchgeführten automatischen Wiederherstellung geändert wurden.
Deaktivieren Sie auf allen in Schritt 1 identifizierten Knoten (nicht auf mehreren Knoten gleichzeitig) den Fehler-Monitor für die betreffende HA-DB-Ressource.
# cladm noderole -db dbname -node nodeno -setrole role-before-auto_recovery |
Aktivieren Sie den Fehler-Monitor für die betreffende HA-DB-Ressource.
oder
Identifizieren Sie die HA-DB-Knoten, deren Rollen nach der erfolgreich durchgeführten automatischen Wiederherstellung geändert wurden.
Deaktivieren Sie auf allen Knoten, die als Host der Datenbank fungieren, den Fehler-Monitor für die betreffende HA-DB-Ressource.
Führen Sie auf einem beliebigen Knoten, den Befehl für jeden HA-DB-Knoten aus, dessen Rolle geändert werden muss.
# cladm noderole -db dbname -node nodeno -setrole role-before-auto_recovery |
Problemübersicht: Während einer laufenden Aufrüstung zeigt, sofern der Befehl scstat -i auf einem noch nicht aufgerüsteten Cluster-Knoten ausgeführt wird, die scstat-Ausgabe nicht den Status der IPMP-Gruppen an, die sich auf den bereits aufgerüsteten Knoten befinden.
Abhilfemaßnahme: Verwenden Sie die scstat -i-Ausgabe aus den aufgerüsteten Knoten.
Problemübersicht: Eine LogicalHostname-Ressource kann dem Cluster nicht hinzugefügt werden, wenn sie eine IPMP-Gruppe mit einem fehlgeschlagenen Adapter verwenden muss.
Abhilfemaßnahme: Entfernen Sie entweder den fehlgeschlagenen Adapter aus der IPMP-Gruppe oder beheben Sie den Fehler, bevor Sie versuchen, die IPMP-Gruppe in einer LogicalHostname-Ressource zu verwenden.
Problemübersicht: Die Felder Status und den Type auf der Statusseite der Ressourcengruppe zeigen Werte in der Sprache an, die als erstes zur Anzeige der Seite verwendet wurde.
Abhilfemaßnahme: Um die Werte in einer anderen Sprache anzuzeigen, muss der Webserver neu gestartet werden.
Problemübersicht: Nach der Einkapselung der Root-Platte stellen Sie möglicherweise fest, dass, wenn Sie die Einkapselung der Root-Platte aufheben und anschließend erneut durchführen, ein Datenträger mit der Bezeichnunguservol für das Dateisystem /global/devices/node@nodeID verwendet wird. Dies kann Probleme verursachen, da der Datenträgername für die Dateisysteme der globalen Geräte sämtlicher Knoten eindeutig sein sollte.
Abhilfemaßnahme: Nachdem Sie die dargestellten Schritte zur Aufhebung der Einkapselung durchgeführt haben, brechen Sie den vxconfigd-Dämon ab, bevor Sie scvxinstall erneut ausführen, um die Root-Platte erneut einzukapseln.
Problemübersicht: Wenn während der Anmeldung bei Sun Web Console wiederholt auf die Anmeldeschaltfläche geklickt oder die Eingabetaste mehrfach betätigt wird, treten durch die mehrfachen Anmeldeaufforderungen verschiedene Fehler, durch die der Zugriff auf SunPlex-Manager verhindert wird.
Abhilfemaßnahme: Melden Sie sich als Superbenutzer auf dem Cluster-Knoten an und starten Sie Sun Web Console neu.
# /usr/sbin/smcwebserver restart |
Problemübersicht: Die Ressourceneigenschaft Resource_dependencies_restart verhält sich nicht wie erwartet, wenn eine Ressource eine any node-Gruppenneustart-Abhängigkeit zwischen Ressourcen bei einer Ressource im Scalable-Modus erklärt. Die meisten Datendienste sind davon nicht betroffen.
Hintergrund zu Gruppenabhängigkeiten zwischen Ressourcen und Neustartabhängigkeiten:
Mit der Funktion der Gruppenabhängikeiten zwischen Ressourcen in Sun Cluster 3.1 9/04 unterstützt die Sun Cluster-Software Ressourcenabhängigkeiten, die über die Ressourcengruppen-Grenzen hinausgehen. Die Sun Cluster-Software unterstützt außerdem einen neuen Ressourcenabhängigkeitstyp, die restart dependency. Wenn die abhängige Ressource online ist, verursacht die restart dependency, dass die abhängige Ressource automatisch neu gestartet wird, wenn die Ressource, von der sie abhängig ist, gestartet wird.
Hintergrund zu den Abhängikeiten local node und any node:
Wenn die Ressource r1 in der Gruppe RG1 eine Abhängigkeit von r2 in RG2 aufweist und wenn RG1 eine positive Affinität für RG2 aufweist und sowohl RG1 als auch RG2 gleichzeitig auf demselben Knoten gestartet oder gestoppt werden, so ist die Abhängigkeit, die r1 gegenüber r2 hat, eine local node-Abhängigkeit. Wenn beispielsweise RG1 und RG2 auf demselben Knoten gestartet werden, wartet r1, bis r2 gestartet wurde. Erst anschließend startet r1 auf demselben Knoten. Der Status vonr2 auf anderen Knoten hat keinen Einfluss darauf, wann r1 gestartet wird.
Falls RG1 jedoch keine positive Affinität für RG2 erklärt oder nur eine schwache positive Affinität vorhanden ist, die Ressourcengruppen jedoch auf verschiedenen Knoten gestartet werden, so handelt es sich bei der Abhängigkeit von r1 gegenüber r2 um eine any node-Abhängigkeit. Gemäß dieser Abhängigkeit wird r1 gestartet, sobald r2 auf einem beliebigen Knoten gestartet wurde.
Problembeschreibung:
Das Problem tritt auf, wenn die Ressourcengruppe RG2 den Scalable-Modus aufweist (d.h. eine Multi-Master-Ressourcengruppe ist) und es sich bei der Abhängigkeit vonr1 gegenüber r2 um eine any node-Neustartabhängigkeit handelt. r1 wird jedes Mal neu gestartet, wenn eine beliebige Instanz von r2 gestartet wird. r1 sollte nur bei der ersten Instanz von r2, die gestartet wird, neu gestartet werden.
Abhilfemaßnahme: Das aktuelle Verhalten der Neustartabhängigkeiten ändert sich in oben beschriebener Weise, sobald dieser Fehler behoben ist. Entwickeln Sie keine Code- oder Verwaltungsverfahren basierend auf dem aktuellen fehlerhaften Verhalten.
Problemübersicht: Wenn Sie über einen Sun Enterprise 15000-Server verfügen und den Befehl sccheck ausführen, schlägt die Prüfung fehl und ein Fehler, der besagt, dass der Sun Enterprise 15000-Server nicht unterstützt wird, wird ausgegeben. Diese Aussage ist falsch.
Abhilfemaßnahme: Es ist keine Abhilfemaßnahme erforderlich. Die Sun Cluster-Software unterstützt Ihren Sun Enterprise 15000-Server. Der vom Befehl sccheck ausgegebene Fehler sagt aus, dass die Prüfung möglicherweise veraltet ist. In diesem Fall ist sccheck veraltet.
Problemübersicht: Französisch (fr) ist als Spracheinstellung für Datendienstagenten, die nicht Bestandteil von Sun Java Enterprise System sind, nicht verfügbar. Das GUI-Installationsprogramm für jene Pakete widerspricht dem jedoch.
Abhilfemaßnahme: Ignorieren Sie diesen Fehler des GUI-Installationsprogramms. Französisch (fr) ist nicht verfügbar.
Problemübersicht: Während einer Aufrüstung auf die Sun Cluster 3.1 9/04-Software, installiert der Befehl scinstall die neuen common agent container -Pakete, SUNWcacao und SUNWcacaocfg. Dabei werden jeoch keine identischen Sicherheitsschlüssel an alle Cluster-Knoten verteilt.
Abhilfemaßnahme: Führen Sie folgende Schritte durch, um sicherzustellen, dass die common agent container-Sicherheitsdateien auf sämtlichen Cluster-Knoten identisch sind und dass die kopierten Dateien wieder die richtigen Dateiberechtigungen erhalten. Diese Dateien werden von der Sun Cluster-Software benötigt.
Wechseln Sie auf dem Cluster-Knoten zum Verzeichnis/etc/opt/SUNWcacao/.
phys-schost-1# cd /etc/opt/SUNWcacao/ |
Erstellen Sie die TAR-Datei für das Verzeichnis /etc/opt/SUNWcacao/security/.
phys-schost-1# tar cf /tmp/SECURITY.tar security |
Kopieren Sie die Datei /tmp/SECURITY.tar auf alle anderen Cluster-Knoten.
Extrahieren Sie auf jedem Knoten, auf den Sie die Datei /tmp/SECURITY.tar kopiert haben, die Sicherheitsdateien.
Sämtliche Sicherheitsdateien, die bereits im Verzeichnis /etc/opt/SUNWcacao/ vorhanden sind, werden überschrieben.
phys-schost-2# cd /etc/opt/SUNWcacao/ phys-schost-2# tar xf /tmp/SECURITY.tar |
Löschen Sie die Datei /tmp/SECURITY.tar aus allen Knoten des Clusters.
Sie müssen sämtliche Kopien der TAR-Datei löschen, um Sicherheitsrisiken zu vermeiden.
phys-schost-1# rm /tmp/SECURITY.tar phys-schost-2# rm /tmp/SECURITY.tar |
Starten Sie den Sicherheitsdateiagenten auf sämtlichen Knoten neu.
# /opt/SUNWcacao/bin/cacaoadm start |
Problemübersicht: Das Datumsfeld des Fensters für den erweiterten Filter bei SunPlex-Manager akzeptiert nur das Format mm/dd/yyyy. In Umgebungen mit anderen Spracheinstellungen als Englisch ist das Datumsformat nicht mm/dd/yyyy und das Format für das Rückgabedatum im Fenster für den Kalender ist nicht mm/dd/yyyy.
Abhilfemaßnahme: Geben Sie den Datumsbereich im Fenster für den erweiterten Filter im Format mm/dd/yyyy ein. Verwenden Sie nicht die Schaltfläche Festlegen, um den Kalender anzuzeigen und das Datum auszuwählen.
Problemübersicht: Wenn Sie eine Ressourcengruppe mithilfe von SunPlex-Manager unter Solaris 8 entfernen, erhalten Sie möglicherweise nicht lesbare Fehlermeldungen. Dieses Problem tritt bei den Spracheinstellungen Japanisch, Koreanisch, Traditionelles Chinesisch und Vereinfachtes Chinesisch auf.
Abhilfemaßnahme: Führen Sie die Systemspracheinstellung in englischer Sprache aus, um die Fehlermeldungen in Englisch anzuzeigen.
Problemübersicht: In der Ressourcentyp-Registrierungsdatei (RTR) SUNW.sapscs sind die Beschreibungen für zwei Erweiterungseigenschaften fehlerhaft.
Abhilfemaßnahme: Die Beschreibung für Scs_Startup_Script sollte Startup script for the SCS. Defaults to /usr/sap/SAP_SID/SYS/exe/run/startsap lauten. Die Beschreibung für Scs_Shutdown_Script sollte Shutdown script for the SCS. Defaults to /usr/sap/SAP_SID/SYS/exe/run/stopsap lauten.
Problemübersicht: Nach der Installation der Sun Cluster-Software mithilfe der JumpStart-Methode kann Sun Web Console SunPlex-Manager nicht starten. Die JumpStart-Prozesse nach der Installation können SunPlex-Manager nicht erfolgreich mit Sun Web Console registrieren.
Abhilfemaßnahme: Führen Sie das folgende Skript auf jedem Cluster-Knoten aus, nachdem die JumpStart-Installation der Sun Cluster-Software auf allen Knoten abgeschlossen wurde.
# /var/sadm/pkg/SUNWscspmu/install/postinstall |
Dieses Skript registriert SunPlex-Manager mit Sun Web Console.
Problemübersicht: Das Installationsprogramm auf der CD-ROM für den Sun Cluster 3.1 9/04-Datendienst für x86 kann nicht zur Installation von HA Oracle verwendet werden. Folgende Meldung wird vom Installationsprogramm ausgegeben:
Could not find child archive ....
Abhilfemaßnahme: Installieren Sie den Sun Cluster-Datendienst mithilfe des Befehlsscinstall.
Problemübersicht: Der Datendienst für die folgenden Anwendungen kann nicht mithilfe des scinstall-Dienstprogramms aufgerüstet werden:
Apache Tomcat
DHCP
mySQL
Oracle E-Business Suite
Samba
SWIFTAlliance Access
WebLogic-Server
WebSphere MQ
WebSphere MQ Integrator
Abhilfemaßnahme: Wenn Sie einen Datendienst für eine in obiger Liste aufgeführte Anwendung aufrüsten möchten, ersetzen Sie den Schritt für die Aufrüstung von Datendiensten im Kapitel zum Thema Aufrüsten auf die Sun Cluster 3.1 9/04-Software (laufend) in Sun Cluster Handbuch Softwareinstallation für Solaris OS durch die folgenden Schritte. Führen Sie diese Schritte für jeden Knoten durch, auf dem der Datendienst installiert ist.
Entfernen Sie das Softwarepaket für den Datendienst, den Sie aufrüsten.
# pkgrm pkg-inst |
pkg-inst gibt den Namen des Softwarepakets für den aufzurüstenden Datendienst den Angaben in der folgenden Tabelle entsprechend an.
Anwendung |
Datendienst-Softwarepaket |
---|---|
Apache Tomcat |
SUNWsctomcat |
DHCP |
SUNWscdhc |
mySQL |
SUNWscmys |
Oracle E-Business Suite |
SUNWscebs |
Samba |
SUNWscsmb |
SWIFTAlliance Access |
SUNWscsaa |
WebLogic Server (Englisch) |
SUNWscwls |
WebLogic Server (Französisch) |
SUNWfscwls |
WebLogic Server (Japanisch) |
SUNWjscwls |
WebSphere MQ |
SUNWscmqs |
WebSphere MQ Integrator |
SUNWscmqi |
Installieren Sie das Softwarepaket für die Datendienstversion, auf die Sie aufrüsten.
Befolgen Sie bei der Installation des Softwarepakets die Anleitungen in der Sun Cluster-Dokumentation für den Datendienst, den Sie aufrüsten. Diese Dokumentation ist unter http://docs.sun.com/ verfügbar.