Dieser Abschnitt führt bekannte Fehler oder Auslassungen in der Dokumentation, Online-Hilfe bzw. der Online-Dokumentation auf und beschreibt die Schritte zum Beheben dieser Probleme.
Das Vorwort in allen Sun Cluster 3.1 8/05-Büchern enthält einen Verweis auf eine Website für Support und Schulung. Diese Website wurde auf folgende Website geändert:
Support: http://www.sun.com/support/
Schulung: http://www.sun.com/training/
In diesem Abschnitt werden Fehler und Auslassungen aus dem Sun Cluster Handbuch Softwareinstallation für Solaris OS behandelt.
Der Abschnitt So installieren Sie Datendienst-Softwarepakete (pkgadd) in Sun Cluster Handbuch Softwareinstallation für Solaris OS enthält eine Installationsbeschreibung für Sun Java System-Datendienste auf einem Cluster, der unter Solaris 10 OS ausgeführt wird. Bei diesem Verfahren wird der Befehl pkgadd -G verwendet, um diese Datendienste nur in der globalen Zone zu installieren. Mit der Option -G stellen Sie sicher, dass die Pakete nicht an vorhandene oder später erstellte nicht globale Zonen weitergegeben werden.
Wenn im System eine nicht globale Zone vorhanden ist, werden bestimmte Sun Java Enterprise System (Java ES)-Anwendungen und einige Java ES-Komponenten möglicherweise nicht unterstützt. Diese Einschränkung gilt, wenn die nicht globale Zone zum Zeitpunkt der Installation bereits vorhanden ist oder nach der Installation konfiguriert wurde. Diese Einschränkung gilt auch, wenn der Befehl pkgadd -G zur Installation der Datendienste für diese Anwendungen verwendet wird. Wenn die Java ES-Anwendungen nicht gleichzeitig mit nicht globalen Zonen vorhanden sein können, können Sie Datendienste für diese Anwendungen nicht in einem Cluster mit nicht globalen Zonen verwenden.
Weitere Informationen zur Java ES-Unterstützung von Solaris-Zonen finden Sie unter Solaris 10 Zones in Sun Java Enterprise System 2005Q5 Installation Guide.
Die Durchführung des Verfahrens, das unter So aktualisieren Sie SCSI-Belegungen nach dem Hinzufügen eines Knotens in Sun Cluster Handbuch Softwareinstallation für Solaris OS beschrieben ist, kann zum Absturz des Knotens führen. Um zu verhindern, dass der Knoten während dieses Verfahrens abstürzt, führen Sie den Befehl scgdevs aus, nachdem Sie alle Quorum-Geräte entfernt haben, jedoch bevor Sie neue Quorum-Geräte konfigurieren.
Die in Kapitel 5, Aufrüsten der Sun Cluster-Software in Sun Cluster Handbuch Softwareinstallation für Solaris OS enthaltenen Richtlinien und Verfahren für die Aktualisierung von Solaris 10 OS verweisen auf Version Solaris 10 10/05. Das hier angegebene Ausgabedatum ist falsch. Zum Zeitpunkt der Veröffentlichung dieses Dokuments ist das Ausgabedatum der ersten geplanten Aktualisierung für Solaris 10 OS noch nicht bekannt. Des Weiteren wurde auch die Unterstützung für das Aufrüsten auf diese geplante Ausgabe noch nicht festgelegt. Unterstützung für das Aufrüsten auf zukünftige Versionen der Solaris 10-Software erhalten Sie von Ihrem Sun-Vertreter.
Anstelle einer Installation der Binärdateien auf jedem Cluster-Knoten einzeln, können die Binärdateien auch in einem Cluster-Dateisystem installiert werden. Bei Solaris 10-Cluster-Konfigurationen müssen Sie bei der Installation des Datendienstes (Agent) mithilfe des Befehls pkgadd auch den Befehl pkgadd verwenden, um die für die Anwendung jeweils erforderlichen Java ES-Komponenten manuell zu installieren.
Eine Liste mit den von den Java ES-Anwendungen jeweils benötigten gemeinsam genutzten Komponenten sowie die Paketliste für die einzelnen gemeinsam genutzten Komponenten finden Sie unter Sun Java Enterprise System 2005Q5 Installation Guide.
Unter So rüsten Sie Abhängigkeits-Software vor einer nicht laufenden Aufrüstung auf. in Sun Cluster Handbuch Softwareinstallation für Solaris OS sowie unter So rüsten Sie Abhängigkeits-Software vor einer laufenden Aufrüstung auf. in Sun Cluster Handbuch Softwareinstallation für Solaris OS sind die Anweisungen zum Überprüfen der Version von zwei der gemeinsam genutzten Komponenten fehlerhaft.
Nicht richtig:
# patchadd -p | grep 114016 |
Korrekt:
# showrev -p | grep 114016 |
Nicht richtig:
# pkginfo -l SUNWexplo | grep SUNW_PRODVERS |
Korrekt:
# pkginfo -l SUNWexplo | grep VERSION |
Eine parallel ausgeführte Aktualisierung wird in zukünftigen Version der Sun Cluster-Software möglicherweise nicht mehr unterstützt. In diesem Fall werden andere Verfahren bereitgestellt, mit denen die Ausfallzeiten von Sun Cluster während einer Software-Aktualisierung minimiert werden können.
Dieser Abschnitt behandelt Fehler und Auslassungen in der SunPlex-Manager-Online-Hilfe.
In der Online-Hilfedatei mit dem Titel “Sun Cluster HA für Oracle,” ist im Abschnitt “Vor dem Start” ein Hinweis fehlerhaft.
Nicht richtig:
Wenn für shmsys und semsys in /etc/system keine Einträge vorhanden sind, werden für diese Variablen automatisch Standardwerte in /etc/system geschrieben. Das System muss dann neu gebootet werden. Überprüfen Sie anhand der Oracle-Installationsdokumentation, ob diese Werte für Ihre Datenbank korrekt sind.
Korrekt:
Wenn bei Installation des Oracle-Datendienstes keine Einträge für die shmsys- und semsys-Variablen in der /etc/system-Datei vorhanden sind, können Sie /etc/system öffnen und Standardwerte für diese Variablen einfügen. Das System muss dann neu gebootet werden. Überprüfen Sie anhand der Oracle-Installationsdokumentation, ob die eingegebenen Werte für Ihre Datenbank korrekt sind.
Die Online-Hilfe-Datei mit dem Titel “SPM Icons and Conventions” enthält in Abschnitt “Sonstige Bezeichnungen” zwei fehlerhafte Beschreibungen.
Nicht richtig:
Tabelle 8 Sonstige Bezeichnungen
Bezeichnung |
Bedeutung |
---|---|
Primäre Ressourcengruppe vom Typ Failover |
|
Sekundäre Ressourcengruppe vom Typ Failover |
Korrekt:
Tabelle 9 Sonstige Bezeichnungen
Bezeichnung |
Bedeutung |
---|---|
Primärer Knoten für die Ressource |
|
Sekundärer Knoten für die Ressource |
In diesem Abschnitt werden Fehler und Auslassungen hinsichtlich des Sun Cluster Konzepthandbuch für Solaris OS behandelt.
In Kapitel 3 sollte der Abschnitt “Verwenden des Cluster-Interconnect für den Datendienstverkehr“ folgendermaßen lauten:
Ein Cluster benötigt mehrere Netzwerkverbindungen zwischen den Knoten, die den Cluster-Interconnect bilden. Die Cluster-Software verwendet mehrere Interconnects, um die Hochverfügbarkeit und die Leistung zu verbessern. Die Meldungen werden sowohl für den internen als auch für den externen Datenverkehr (zum Beispiel Dateisystemdaten oder skalierbare Dienstedaten) über alle verfügbaren Interconnects verteilt.
Der Cluster-Interconnect steht auch Anwendungen zur hochverfügbaren Kommunikation zwischen den Knoten zur Verfügung. Eine verteilte Anwendung kann zum Beispiel Komponenten auf unterschiedlichen Knoten ausführen, die miteinander kommunizieren müssen. Indem der Cluster-Interconnect anstelle des öffentlichen Netzwerks verwendet wird, bleiben diese Verbindungen beim Versagen einer einzelnen Verknüpfung bestehen.
Um den Cluster-Interconnect für die Datenverbindung zwischen den Knoten zu verwenden, muss eine Anwendung die während der Cluster-Installation konfigurierten privaten Hostnamen verwenden. Wenn zum Beispiel der private Hostname für Knoten 1 clusternode1-priv ist, kommunizieren Sie mit diesem Namen über den Cluster-Interconnect mit Knoten 1. TCP-Sockets, die mit diesem Namen geöffnet wurden, werden über den Cluster-Interconnect geleitet und können bei einem Netzwerkfehler transparent umgeleitet werden. Die Anwendungskommunikation zwischen zwei beliebigen Knoten wird über alle Interconnects verteilt. Der Datenverkehr für eine bestimmte TCP-Verbindung erfolgt auf einem Interconnect an einem beliebigen Punkt. Verschiedene TCP-Verbindungen werden über alle Interconnects verteilt. Zusätzlich wird der UDP-Datenverkehr immer über alle Interconnects verteilt.
Beachten Sie, dass der Cluster-Interconnnect jeden beliebigen, während der Installation gewählten Namen verwenden kann, da die privaten Hostnamen während der Installation konfiguriert werden können. Den tatsächlichen Namen erhalten Sie über scha_cluster_get(3HA) mit dem Argument scha_privatelink_hostname_node.
In diesem Abschnitt werden die Fehler und Auslassungen beschrieben, die im Sun Cluster Handbuch Systemverwaltung für Solaris OS auftreten.
Das unter So installieren Sie eine Korrekturversion mit Neubooten (Knoten) in Sun Cluster Handbuch Systemverwaltung für Solaris OS beschriebene Verfahren für die Neustart-Korrekturversion (Knoten) kann nicht für einzelne Knoten rückgängig gemacht werden. Ein paralleles Downgrade von Sun Cluster-Versionen wird ebenfalls nicht unterstützt. Um eine Sun Cluster-Korrekturversion oder -Aktualisierung zu entfernen, müssen Sie die vorherige Korrekturversion bzw. Aktualisierung erneut anwenden. Folgen Sie hierfür den Anweisungen unter So installieren Sie eine Korrekturversion mit Neubooten (Cluster und Firmware) in Sun Cluster Handbuch Systemverwaltung für Solaris OS.
Das Dokument Sun Cluster Data Service for NFS Guide for Solaris OS enthält Auslassungen bezüglich Einschränkungen für die Verwendung von Sun Cluster HA für NFS mit NFS v3.
Wenn Sie Sun Cluster HA für NFS verwenden, verwenden Sie die Cluster-Knoten nicht als NFS v3-Clients für externe NFS-Server. Diese Einschränkung gilt auch, wenn der externe NFS-Server ein mit dem Netzwerk verbundenes Speicher-(NAS-)Gerät ist. Wenn Sie Ihre Cluster-Knoten auf diese Weise konfigurieren, gehen Sperren, die möglicherweise von den Cluster-Knoten auf den externen NFS-Servern eingerichtet wurden, verloren.
Diese Einschränkung gilt nicht für NFS v4-Clients. Sie können NFS v4 für das Einhängen von externen NFS-Servern verwenden.
Dieser Abschnitt beschreibt Auslassungen in Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS.
Beim Ändern von Verweisen auf die Hostnamen im System, lesen Sie die entsprechenden SAP-Hinweise. Die SAP-Hinweise enthalten aktuelle Informationen zum Ändern von Hostnamen. In Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS wurden einzelne Verweise auf diese SAP-Hinweise ausgelassen.
In den folgenden Abschnitten wird das Verfahren zum Ändern von Hostnamen beschrieben.
In Abschnitt How to Install and Configure the SAP Web Application Server and the SAP J2EE Engine in Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS wurden Anweisungen zur Installation der SAP J2EE-Engine als skalierbare Ressource ausgelassen. Schritt 2 und Schritt 7 des Verfahrens in diesem Abschnitt sind nicht vollständig.
Korrektur Schritt 2:
Wenn Sie die SAP J2EE-Engine verwenden, installieren Sie die SAP J2EE-Engine-Software.
Lesen Sie die SAP-Installationsdokumentation.
Wenn Sie die SAP J2EE-Engine als Failover-Ressource konfigurieren möchten, installieren Sie die SAP 2JEE-Engine-Software auf demselben Knoten, auf dem Sie die SAP Web Application Server-Software in Schritt 1 installiert haben
Wenn Sie die SAP J2EE-Engine als skalierbare Ressource konfigurieren möchten, installieren Sie die SAP J2EE-Engine-Software auf jedem Knoten, der als Master für die skalierbare Ressource eingesetzt werden kann. Installieren Sie die SAP J2EE-Dialoginstanz auf allen Knoten mit derselben SAP-Systemnummer. Die Nummer entspricht dem Wert für SAPSYSTEM im SAP-Profil.
Korrektur Schritt 7:
Wenn Sie die SAP J2EE-Engine verwenden, ändern Sie das Skript loghost so, dass die Hostnamen für die SAP J3EE-Engine zurückgegeben werden.
Ändern Sie das in Schritt 6 erstellte Skript loghost so, dass entweder die logischen oder physikalischen Hostnamen für die einzelnen Instanzen der SAP J2EE-Engine zurückgegeben werden.
Wenn Sie die SAP J2EE-Engine als Failover-Ressource konfigurieren möchten, ändern Sie das Skript so, dass die logischen Hostnamen zurückgegeben werden. Die folgenden Befehle geben ein Beispiel für die Änderungen dieses Skripts.
if [ "$1" = "JC00" ]; then echo loghost-4; fi if [ "$1" = "SCS02" ]; then echo loghost-5; fi if [ "$1" = "J02" ]; then echo loghost-6; fi |
Wenn Sie die SAP J2EE-Engine als skalierbare Ressource konfigurieren möchten, ändern Sie das Skript so, dass die physikalischen Hostnamen zurückgegeben werden. Die folgenden Befehle geben ein Beispiel für die Änderungen dieses Skripts.
if [ "$1" = "J03" ]; then echo `hostname`; fi |
In diesem Abschnitt werden Fehler und Auslassungen beschrieben, die in Sun Cluster Data Service for Solaris Containers Guide auftreten.
Unter Configuration Restrictions in Sun Cluster Data Service for Solaris Containers Guide wurde eine Einschränkung ausgelassen, die sich auf die Eigenschaft autoboot einer Failover-Zone bzw. einer Zone mit mehreren Mastern bezieht.
Beim Erstellen einer Failover-Zone oder einer Zone mit mehreren Master. stellen Sie sicher dass die Zoneneigenschaft autoboot auf den Wert false eingestellt ist. Durch die Einstellung false für die Eigenschaft autoboot der Zone wird verhindert, dass die Zone beim Starten der globalen Zone ebenfalls gestartet wird. Der Sun Cluster HA für Solaris Container-Datendienst kann eine Zone nur dann verwalten, wenn die Zone vom Datendienst gesteuert hochgefahren wurde.
Unter Configuration Requirements in Sun Cluster Data Service for Solaris Containers Guide wurde eine Einschränkung ausgelassen, die sich auf die Anforderungen für ein Loopback-Dateisystem (LOFS) bezieht.
Stellen Sie sicher, dass das Loopback-Dateisystem (LOFS) aktiviert ist.
Das Sun Cluster-Installationstool deaktiviert das LOFS. Wenn Sie Sun Cluster HA für Solaris Container für die Verwaltung einer Zone verwenden, aktivieren Sie das LOFS nach der Installation und Konfiguration des Sun Cluster-Framework. Um das LOFS zu aktivieren, löschen Sie folgende Zeile aus der Datei /etc/system:
exclude: lofs
Das Verfahren How to Install and Configure a Zone in Sun Cluster Data Service for Solaris Containers Guide enthält folgende Fehler:
In Schritt 6 wurde der Hinweis ausgelassen, dass der Schritt auf allen Cluster-Knoten ausgeführt werden muss, mit Ausnahme des Knotens, auf dem die Zone in den vorherigen Schritten installiert und konfiguriert wurde
Schritt 6d enthält eine falsche Angabe der Installationsverzeichnisse der Datei zone.xml. Außerdem wurde in der Befehlsangabe in diesem Schritt der Punkt der Datei zone.xml ausgelassen. Die korrekte Anweisung in diesem Schritt und der korrigierte Befehl lauten wie folgt:
Kopieren Sie die Datei zone.xml in das Verzeichnis /etc/zones des Knotens.
# rcp zone-install-node:/etc/zones/zone.xml .
Der Beispielcode in den folgenden Abschnitten ist fehlerhaft:
Writing a Zone Script in Sun Cluster Data Service for Solaris Containers Guide
Writing an SMF Service Probe in Sun Cluster Data Service for Solaris Containers Guide
Der korrekte Code lautet für beide Abschnitte wie folgt:
# cat /var/tmp/probe-apache2 #!/usr/bin/ksh if echo "GET; exit" | mconnect -p 80 > /dev/null 2>&1 then exit 0 else exit 100 fi
Dieser Abschnitt erläutert Fehler und Auslassungen in Sun Cluster 3.1 With Network-Attached Storage Devices Manual for Solaris OS.
Die NetApp NAS-Einheit muss direkt mit einem Netzwerk verbunden sein, das über direkte Verbindungen zu allen Knoten im Cluster verfügt.
Beim Einrichten eines NetApp NAS-Filers müssen Sie zusätzlich zu den Anweisungen unter Installing a Network Appliance NAS Device in a Sun Cluster Environment in Sun Cluster 3.1 With Network-Attached Storage Devices Manual for Solaris OS folgende Schritte durchführen:
Fügen Sie den NetApp NAS-Filer zu/etc/inet/hosts hinzu.
Fügen Sie eine Adresse-Hostnamen-Zuordnung für den Filer der Datei /etc/inet/hosts auf allen Knoten im Cluster hinzu. Beispiel:
netapp-123 192.168.11.123 |
Fügen Sie die Filer-(NAS-Teilsatz-)Netzmasken zu /etc/inet/netmasks hinzu.
Fügen Sie der Datei /etc/inet/netmasks auf allen Cluster-Knoten einen Eintrag für das Teilnetz, auf dem sich der Filer befindet, hinzu. Beispiel:
192.168.11.0 255.255.255.0 |
Überprüfen Sie auf allen Cluster-Knoten , ob die Einträge hosts und netmasks in der Datei /etc/nsswitch.conf die Zeichenfolge files vor nis und dns enthalten. Falls die Zeichenfolge nicht enthalten ist, bearbeiten Sie die entsprechende Zeile in der Datei /etc/nsswitch.conf, indem Sie die Zeichenfolge files vor nis und dns setzen.
In diesem Abschnitt werden die Fehler und Auslassungen besprochen, die in der Sun Cluster-Online-Dokumentation auftreten.
Zum Anzeigen der Online-Dokumentation für Sun Cluster 3.0-Datendienst müssen Sie die neuesten Patches für die unter Sun Cluster 3.1 8/05-Software installierten Sun Cluster 3.0-Datendienste installieren. Weitere Informationen finden Sie unter Korrekturversionen und erforderliche Firmware-Ebenen.
Nach Installation der Korrekturversion geben Sie den man -M-Befehl mit dem vollständigen Online-Dokumentationspfad als Argument aus, um auf die Online-Dokumentation für Sun Cluster 3.0-Datendienste zuzugreifen. Mit dem folgenden Beispiel wird die Online-Dokumentation für Apache geöffnet.
% man -M /opt/SUNWscapc/man SUNW.apache |
Sie können auch MANPATH ändern, damit auf die Online-Dokumentation für Sun Cluster 3.0-Datendienst zugegriffen werden kann, ohne den vollständigen Pfad anzugeben. Das folgende Beispiel beschreibt die Befehlseingabe für das Hinzufügen des Pfads zur Apache-Online-Dokumentation zu MANPATH und das Anzeigen der Apache-Online-Dokumentation.
% MANPATH=/opt/SUNWscapc/man:$MANPATH; export MANPATH % man SUNW.apache |