Sun Cluster 3.1 8/05 Versionshinweise für Solaris OS

Bekannte Probleme und Programmierfehler

Die folgenden bekannten Probleme und Programmierfehler betreffen den Betrieb der Sun Cluster 3.1 8/05-Version.

scvxinstall erstellt falsche vfstab-Einträge, wenn das Boot-Gerät mit Mehrfachpfaden arbeitet (4639243).

Zusammenfassung der Probleme scvxinstall erstellt falsche /etc/vfstab-Einträge, wenn das Boot-Gerät mit Mehrfachpfaden arbeitet.

Problemumgehung: Führen Sie scvxinstall mit ausgewählter Einkapselung aus. Wenn folgende Meldung angezeigt wird, drücken Sie :Strg-C, um das Neubooten abzubrechen:


Dieser Knoten wird in 20 Sekunden neu gebootet. Drücken Sie Strg-C, um abzubrechen.

Bearbeiten Sie denvfstab-Eintrag, sodass /global/.devices den Namen /dev/{r}dsk/cXtXdX anstelle des Namens /dev/did/{r}dsk verwendet. Dieser überarbeitete Eintrag ermöglicht VxVM, es als Root-Datenträger zu erkennen. Führen Sie scvxinstall mit ausgewählter Einkapselung aus. Die Datei vfstab enthält die erforderlichen Aktualisierungen. Genehmigen Sie, dass der Neustart durchgeführt wird. Die Einkapselung wird auf normale Weise fortgesetzt.

ProcedureSo beheben Sie /etc/vfstab-Fehler für ein Boot-Gerät mit Mehrfachpfaden

Schritte
  1. Führen Sie scvxinstall mit ausgewählter Einkapselung aus.

    Folgende Systemmeldung wird angezeigt:


    This node will be re-booted in 20 seconds.  Type Ctrl-C to abort.
  2. Brechen Sie den Neustart ab.


    Ctrl-C
  3. Bearbeiten Sie den Eintrag /etc/vfstab so, dass /global/.devices den Namen /dev/{r}dsk/cXtXdX anstelle des Namens /dev/did/{r}dsk verwendet.

    Dieser überarbeitete Eintrag ermöglicht VxVM, es als Root-Datenträger zu erkennen.

  4. Führen Sie scvxinstall mit ausgewählter Einkapselung erneut aus.

    Die Datei /etc/vfstab wurde entsprechend aktualisiert. Genehmigen Sie, dass der Neustart durchgeführt wird. Die Einkapselung wird auf normale Weise fortgesetzt.

SAP liveCache-Stoppmethoden-Zeitüberschreitung (4836272).

Zusammenfassung der Probleme Der Datendienst Sun Cluster HA für SAP liveCache verwendet den Befehl dbmcli, um liveCache zu starten und zu stoppen. Unter Solaris 9 steht der Netzwerkdienst bei einem Versagen des öffentlichen Netzwerks eines Cluster-Knotens möglicherweise nicht zur Verfügung.

Problemumgehung: Nehmen Sie einen der folgenden Einträge für die Datenbank publickey in der Datei /etc/nsswitch.conf auf allen Knoten, die als primäre Knoten für liveCache-Ressourcen dienen können, auf:

publickey:
publickey:  files
publickey:  files [NOTFOUND=return] nis
publickey:  files [NOTFOUND=return] nisplus

Das Hinzufügen eines der obigen Einträge und die unter Sun Cluster Data Service for SAP liveCache Guide for Solaris OS beschriebenen Updates stellen sicher, dass sich die Befehle su und dbmcli nicht auf die Namensdienste NIS/NIS+ beziehen. Das Umgehen der Namensdienste NIS/NIS+ stellt sicher, dass der Datendienst während eines Netzwerkversagens korrekt gestartet und gestoppt wird.

nsswitch.conf-Anforderung gilt nicht für passwd-Datenbank (4904975).

Zusammenfassung der Probleme Die unter Preparing the Nodes and Disks in Sun Cluster Data Service for SAP liveCache Guide for Solaris OS beschriebene Einschränkung für die Datei nsswitch.conf gilt nicht für den Eintrag für die passwd-Datenbank. Wenn diese Anforderungen erfüllt sind, bleibt der su-Befehl möglicherweise auf jedem Knoten hängen, der die liveCache-Ressource bei einem Versagen des öffentlichen Netzwerks unterstützt.

Problemumgehung: Stellen Sie auf jedem Knoten, der die liveCache-Ressource unterstützen kann, sicher, dass der Eintrag in der /etc/nsswitch.conf-Datei für die passwd-Datenbank folgendermaßen lautet:

passwd: files nis [TRYAGAIN=0]

sccheck hängt (4944192).

Zusammenfassung der Probleme sccheck bleibt möglicherweise hängen, wenn es gleichzeitig auf mehreren Knoten gestartet wird.

Problemumgehung: Starten Sie sccheck nicht auf Mehrfachkonsolen, die Befehle an mehrere Knoten übermitteln. Die sccheck-Ausführungen können sich überschneiden, aber der Befehl darf nicht gleichzeitig gestartet werden.

Mit falscher Java-Version verknüpfte Binärdateien verursachen Fehler im HADB-Agenten (4968899).

Zusammenfassung der Probleme Der HADB-Datendienst verwendet derzeit nicht die Umgebungsvariable JAVA_HOME. Daher verwendet HADB die Java-Binärdateien aus /usr/bin/, wenn dieser vom HADB-Datendienst gestartet wurde. Die Java-Binärdateien in /usr/bin/ müssen mit der entsprechenden Version von Java 1.4 oder höher verknüpft sein, damit der HADB-Datendienst ordnungsgemäß ausgeführt werden kann.

Problemumgehung: Wenn einer Änderung der vorhandenen Standardversion nichts entgegensteht, führen Sie das folgende Verfahren durch. Beispielhaft wird bei dieser Abhilfemaßnahme angenommen, dass sich im Verzeichnis /usr/j2se die neueste Version von Java (z.B. 1.4 und höher) befindet.

  1. Wenn sich in Ihrem /usr/-Verzeichnis ein Verzeichnis mit dem Namen java/ befindet, verschieben Sie das Verzeichnis an einen temporären Speicherort.

  2. Verknüpfen Sie ausgehend von Verzeichnis /usr/ die Datei /usr/bin/java und alle anderen Java-bezogenen Binärdateien mit der passenden Version von Java.


    # ln -s j2se java
    

Falls Sie die verfügbare Standardversion nicht ändern möchten, weisen Sie die JAVA_HOME-Umgebungsvariable der entsprechenden Version von Java (J2SE 1.4 und höher) im /opt/SUNWappserver7/SUNWhadb/4/bin/hadbm-Skript zu.

Hinzufügen eines neuen Cluster-Knotens erfordert Cluster-Neustart (4971299).

Zusammenfassung der Probleme Nach dem Hinzufügen eines Knotens zu einem Cluster, der Sun Cluster Support für Oracle Real Application Clusters ausführt und die VxVM-Cluster-Funktion verwendet, wird der neue Knoten nicht von der Cluster-Funktion erkannt, die auf anderen Knoten ausgeführt wird.

Problemumgehung: Eine Behebung dieses Problems ist von VERITAS für VxVM 3.5 MP4 und VxVM 4.0 MP2 geplant. Die Behebung des Problems für VxVM 4.1 ist derzeit verfügbar.

Solange die Code-Korrektur noch nicht verfügbar ist, können Sie das Problem beheben, indem Sie die Oracle-Datenbank und anschließend die Cluster-Knoten neu starten. In diesem Schritt werden Oracle UDLM und die Aktualisierungen der VxVM-Cluster-Funktion synchronisiert, um die hinzugefügten Knoten bekannt zu machen.


Hinweis –

Installieren und konfigurieren Sie Sun Cluster Support für Oracle Real Application Clusters erst dann auf dem neuen Knoten, nachdem Sie diesen Schritt ausgeführt haben.


  1. Fahren Sie die Oracle Real Application Clusters-Datenbank auf einem anderen als den soeben hinzugefügten Knoten herunter.

  2. Booten Sie den Knoten, auf dem Sie die Oracle-Datenbank heruntergefahren haben, neu.


    # scswitch -S -h thisnode
    # shutdown -g0 -y -i6
    

    Warten Sie, bis der Knoten im Cluster vollständig neu gebootet wurde, bevor Sie den nächsten Schritt durchführen.

  3. Starten Sie die Oracle-Datenbank neu.

  4. Wiederholen Sie Schritt 1 bis Schritt 3 auf allen übrigen Knoten, auf denen Sun Cluster Support für Oracle Real Application Clusters ausgeführt wird.

    • Wenn Sie über einen Knoten verfügen, mit dem die Oracle-Datenbank allein ausgeführt werden kann, können Sie diese Schritte für mehrere Knoten gleichzeitig durchführen

    • Wenn mehrere Knoten zur Unterstützung der Datenbankprozesse erforderlich sind, führen Sie diese Schritte für jeden Knoten einzeln aus

HA-DB wird ohne Spares neu initialisiert (4973982).

Zusammenfassung der Probleme Aufgrund des Fehlers 4974875 initialisiert sich die Datenbank ohne Spares neu. Der genannte Fehler wurde behoben und in die HA-DB-Version 4.3 integriert. Im Fall von HA-DB 4.2 und niedrigeren Versionen befolgen Sie eines der unten beschriebenen Verfahren, um die Rollen der HA-DB-Knoten zu ändern.

Problemumgehung: Führen Sie eines der folgenden Verfahren durch, um die Rollen der HA-DB-Knoten zu ändern:

  1. Identifizieren Sie die HA-DB-Knoten, deren Rollen nach der erfolgreich durchgeführten automatischen Wiederherstellung geändert wurden.

  2. Deaktivieren Sie auf allen in Schritt 1 identifizierten Knoten (nicht auf mehreren Knoten gleichzeitig) den Fehler-Monitor für die betreffende HA-DB-Ressource.


    # cladm noderole -db dbname -node nodeno -setrole Rolle vor automatischer Wiederherstellung
    
  3. Aktivieren Sie den Fehler-Monitor für die betreffende HA-DB-Ressource.

    oder

  1. Identifizieren Sie die HA-DB-Knoten, deren Rollen nach der erfolgreich durchgeführten automatischen Wiederherstellung geändert wurden.

  2. Deaktivieren Sie auf allen Knoten, die als Host der Datenbank fungieren, den Fehler-Monitor für die betreffende HA-DB-Ressource.

  3. Führen Sie auf einem beliebigen Knoten den Befehl für jeden HA-DB-Knoten aus, dessen Rolle geändert werden muss.


    # cladm noderole -db dbname -node nodeno -setrole Rolle vor automatischer Wiederherstellung
    

Auf pnmd kann während einer parallelen Aktualisierung nicht von anderen Knoten aus zugegriffen werden (4997693).

Zusammenfassung der Probleme Wenn die parallele Aktualisierung noch nicht auf allen Knoten fertig gestellt wurde, erkennen die noch nicht aktualisierten Knoten die IPMP-Gruppen auf den aktualisierten Knoten nicht.

Problemumgehung: Schließen Sie die Aktualisierung auf allen Knoten im Cluster ab.

Datumsfeld im Fensterbereich für erweiterte Filter akzeptiert Datumsangaben nur im Format MM/TT/JJJJ (5075018).

Zusammenfassung der Probleme Das Datumsfeld im Fensterbereich für erweiterte Filter in SunPlex Manager akzeptiert Datumsangaben nur im Format MM/TT/JJJJ. In nicht englischen Gebietsschemata gilt ein anderes Datumsformat als MM/TT/JJJJ; und das vom Kalenderbereich zurückgegebene Datumsformat unterscheidet sich von dem Format MM/TT/JJJJ.

Problemumgehung: Geben Sie das Datum im Fensterbereich für erweiterte Filter im Format MM/TT/JJJJ an. Verwenden Sie nicht die Schaltfläche "Festlegen...", um den Kalender anzuzeigen und das Datum auszuwählen.

In der japanischen Lokalisierung enthalten die scrgadm-Fehlermeldungen nicht lesbare Zeichen (5083147).

Zusammenfassung der Probleme In der japanischen Lokalisierung werden die scrgadm-Meldungen nicht ordnungsgemäß angezeigt. Die Meldungen enthalten nicht lesbare Zeichen.

Problemumgehung: Führen Sie das System im englischen Gebietsschema aus, um die Fehlermeldungen in englischer Sprache anzuzeigen.

Das Skript /usr/cluster/lib/cmass/ipmpgroupmanager.sh deaktiviert die IPv6-Schnittstelle (6174170).

Zusammenfassung der Probleme SunPlex-Manager verwendet /usr/cluster/lib/cmass/ipmpgroupmanager.sh, um IPMP-Gruppen und Adapter aus IPMP-Gruppen zu löschen. Das Skript aktualisiert zwar die Datei /etc/hostname6.adaptername ordnungsgemäß, um die Gruppennamen zu entfernen, führt jedoch folgenden ifconfig-Befehl aus, durch den die IPv6-Schnittstelle deaktiviert wird :


ifconfig adaptername inet6 unplumb

Problemumgehung: Starten Sie den Knoten neu, um die Schnittstelle wieder zu aktivieren. Alternativ dazu können Sie auch den ifconfig-Befehl auf dem Knoten ausführen. Diese Alternative erfordert keinen Neustart des Knotens.


ifconfig adaptername inet6 plumb up

Die Seite "IPMP Group" sollte die Adapterliste entsprechend der vom Benutzer ausgewählten IP-Version mit Einträgen füllen (6174805).

Zusammenfassung der Probleme Die auf den Seiten für IPMP-Gruppen angezeigte Adapterliste enthält nicht die Einträge entsprechend der vom Benutzer ausgewählten IP-Version. Die auf der Seite angezeigte Liste enthält alle Adapter, für die keine Gruppen konfiguriert wurden. Diese Liste sollte je nach ausgewähltem Optionsfeld für die IP-Version wie folgt aktualisiert werden:

Problemumgehung: Stellen Sie sicher, dass Sie nach Auswahl der IP-Version nur den Adapter aus der Liste auswählen, der für die ausgewählte IP-Version aktiviert ist.

Beim Ändern eines IPv4-IPv6-Adapters in einen Nur-IPv4-Adapter wird die IPv4-Version nicht entfernt (6179721).

Zusammenfassung der Probleme Die auf den Seiten für IPMP-Gruppen angezeigte Adapterliste ist von der vom Benutzer ausgewählten IP-Version abhängig. Die aktuelle SunPlex Manager-Version enthält einen Programmierfehler, der verursacht, dass eine vollständige Liste unabhängig von der IP-Version angezeigt wird. SunPlex Manager sollte verhindern, dass Benutzer einen Adapter, der sowohl für IPv4 als auch für IPv6 aktiviert ist, in einen Adapter ändern können, der nur für IPv4 aktiviert ist.

Problemumgehung: Benutzer sollten Adapter, die sowohl für IPv4 als auch für IPv6 konfiguriert sind, nicht in einen Adapter ändern, der nur für IPv4 aktiviert ist.

Konfiguration des Sun Java System Administration Server schlägt fehl, wenn das SUNWasvr-Paket nicht installiert ist (6196005).

Zusammenfassung der Probleme Die Konfiguration des Datendienstes für Sun Java System Administration Server schlägt fehl, wenn Sun Java System Administration Server nicht installiert ist. Die Konfiguration schlägt fehl, da für den Ressourcentyp SUNW.mps das Verzeichnis /etc/mps/admin/v5.2/cluster/SUNW.mps vorhanden sein muss. Dieses Verzeichnis ist nur vorhanden, wenn das SUNWasvr-Paket installiert wurde.

Problemumgehung: Um dieses Problem zu beheben, führen Sie folgendes Verfahren durch:

ProcedureSo installieren Sie das SUNWasvr-Paket

Schritte
  1. Melden Sie sich als Root-Benutzer oder als Benutzer mit einer entsprechenden Rolle an einem Knoten im Cluster an.

  2. Ermitteln Sie, ob das SUNWtcatu-Paket installiert ist.


    # pkginfo SUNWasvr
    
  3. Wenn das SUNWasvr-Paket nicht installiert ist, installieren Sie das Paket von der Sun Cluster CD-ROM, indem Sie folgende Schritte durchführen:

    1. Legen Sie die Sun Cluster CD-ROM 2 von 2 in das entsprechende Laufwerk ein.

    2. Navigieren Sie zum dem Verzeichnis, dass das SUNWasvr-Paket enthält.


      # cd /cdrom/cdrom0/Solaris_sparc/Product/administration_svr/Packages
      
    3. Geben Sie den folgenden Befehl ein, um das Paket zu installieren.


      # pkgadd -d . SUNWasvr
      
    4. Nehmen Sie die CD-ROM aus dem Laufwerk.

Änderung der Eigenschaft startd/duration wird nicht sofort wirksam (6196325).

Zusammenfassung der Probleme Unter Solaris 10 setzt der Sun Cluster HA für NFS-Datendienst die Eigenschaft /startd/durationauf transient für die Service Management Facility (SMF)-Dienste /network/nfs/server, /network/nfs/status und /network/nfs/nlockmgr . Mit der Einstellung für diese Eigenschaft soll verhindert werden, dass SMF diese Dienste bei einem Fehler neu startet. Ein Programmierfehler in SMF verursacht, dass SMF trotz dieser Einstellung die Dienste /network/nfs/status und /network/nfs/nlockmgr beim Auftreten eines ersten Fehlers dennoch neu startet.

Problemumgehung: Damit Sun Cluster HA für NFS ordnungsgemäß ausgeführt wird, führen Sie den folgenden Befehl auf allen Knoten aus, nachdem Sie die erste Sun Cluster HA für NFS-Ressource erstellt haben, jedoch bevor Sie die Sun Cluster HA für NFS-Ressource online stellen.


# pkill -9 -x 'startd|lockd'

Wenn Sie Sun Cluster zum ersten Mal starten, führen Sie den obigen Befehl auf allen geplanten primären Knoten aus, nachdem Sie die erste Sun Cluster HA für NFS-Ressource erstellt haben, jedoch bevor Sie die Sun Cluster HA für NFS-Ressource online stellen.

scinstall kopiert nicht alle Sicherheitsdateien des Common Agent Container (6203133).

Zusammenfassung der Probleme Beim Hinzufügen eines Knotens zum Cluster überprüft das Dienstprogramm scinstall, ob die Network Security Services (NSS)-Dateien auf dem hinzuzufügenden Knoten vorhanden sind. Diese Dateien sowie die Sicherheitsschlüssel werden von common agent container benötigt. Wenn die NSS-Dateien vorhanden sind, kopiert das Dienstprogramm die common agent container-Sicherheitsdateien von dem Knoten, der als Vorlage für das Kopieren dient, auf den hinzuzufügenden Knoten. Falls der Knoten, der als Vorlage dient, nicht über die NSS-Sicherheitsschlüssel verfügt, schlägt der Kopiervorgang fehl und die Ausführung des Dienstprogramms scinstall wird abgebrochen.

Problemumgehung: Führen Sie folgendes Verfahren durch, um die NSS-Software zu installieren, erstellen Sie die Sicherheitsschlüssel neu und starten Sie common agent container auf dem vorhandenen Cluster-Knoten neu.

ProcedureSo installieren Sie die NSS-Software beim Hinzufügen eines Knotens zum Cluster

Führen Sie folgendes Verfahren als Superbenutzer oder als Benutzer mit entsprechender Zugriffsberechtigung auf allen Knoten im Cluster durch.

Bevor Sie beginnen

Halten Sie die Sun Cluster-CD-ROM 1 von 2 bereit. Die NSS-Pakete befinden sich im Verzeichnis /cdrom/cdrom0/Solaris_arch/Product/shared_components/Packages/, wobei arch für sparc oder x86 steht und ver für 8 für Solaris 8, 9 für Solaris 9 oder 10 für Solaris 10.

Schritte
  1. Halten Sie auf jedem Knoten den Sun Web Console-Agenten an.


    # /usr/sbin/smcwebserver stop
    
  2. Halten Sie in sämtlichen Knoten den Agenten für Sicherheitsdateien an.


    # /opt/SUNWcacao/bin/cacaoadm stop
    
  3. Ermitteln Sie auf allen Knoten, ob NSS-Pakete installiert sind, und wenn ja, in welcher Version.


    # cat /var/sadm/pkg/SUNWtls/pkginfo | grep SUNW_PRODVERS
    SUNW_PRODVERS=3.9.4
  4. Wenn eine Version vor 3.9.4 installiert ist, entfernen Sie die vorhandenen NSS-Pakete.


    # pkgrm packages
    

    In der folgenden Tabelle finden Sie die jeweiligen Pakete für die einzelnen Hardware-Plattformen.

    Hardware-Plattform 

    Name des NSS-Pakets 

    SPARC 

    SUNWtls SUNWtlsu SUNWtlsx

    x86 

    SUNWtls SUNWtlsu

  5. Wenn Sie die NSS-Pakete entfernt haben oder keine installiert waren, installieren Sie die aktuellsten NSS-Pakete von Sun Cluster-CD-ROM 1 von 2 auf allen Knoten.

    • Verwenden Sie für Solaris 8 bzw. Solaris 9 OS folgenden Befehl:


      # pkgadd -d . packages
      
    • Verwenden Sie für Solaris 10 OS folgenden Befehl:


      # pkgadd -G -d . packages
      
  6. Wechseln Sie in ein Verzeichnis, das sich nicht auf der CD-ROM befindet, und werfen Sie dann die CD-ROM aus.


    # eject cdrom
    
  7. Erstellen Sie auf allen Knoten die NSS-Sicherheitsschlüssel.


    # /opt/SUNWcacao/bin/cacaoadm create-keys
    
  8. Starten Sie auf sämtlichen Knoten den Agenten für Sicherheitsdateien.


    # /opt/SUNWcacao/bin/cacaoadm start
    
  9. Starten Sie auf jedem Knoten den Sun Web Console-Agenten.


    # /usr/sbin/smcwebserver start
    
  10. Starten Sie auf dem hinzuzufügenden Knoten das Dienstprogramm scinstall neu und führen Sie das Verfahren zur Installation eines neuen Knotens durch.

Löschen einer öffentlichen Schnittstellengruppe mit IPv4- und IPv6-Adaptern unter SunPlex-Manager schlägt fehl (6209229).

Zusammenfassung der Probleme Das Löschen einer öffentlichen Schnittstellengruppe, die sowohl über IPv4-fähige als auch über IPv6-fähige Adapter verfügt, schlägt unter Umständen bei dem Versuch fehl, einen IPv6-Adapter aus der Gruppe zu löschen. Folgende Fehlermeldung wird angezeigt:


ifparse: Operation netmask not supported for inet6
/sbin/ifparse
/usr/cluster/lib/cmass/ipmpgroupmanager.sh[8]:
/etc/hostname.adaptname.tmpnumber: cannot open

Problemumgehung: Fügen Sie der Datei /etc/hostname6.adaptername folgende Zeilen hinzu:


plumb
up
-standby

Führen Sie folgenden Befehl auf dem Cluster-Knoten aus:


ifconfig adaptername inet6 plumb up -standby

Speicherfehler beim Anwenden einer Korrekturversion mit Neustart (Knoten) (Fehler 6210440).

Zusammenfassung der Probleme Sun Cluster-Software hängt bei dem Versuch, eine parallele Aktualisierung von Sun Cluster 3.1 9/04 auf Sun Cluster 3.1 8/05 durchzuführen. Dieser Fehler ist auf ein Speicherproblem zurückzuführen, das beim Neustart des ersten aktualisierten Knotens im Cluster-Modus ausgelöst wird.

Problemumgehung: Wenn Sie die Software Sun Cluster 3.1 9/04 oder die entsprechende Korrekturversion (Überarbeitung 09 oder höher) ausführen und eine Korrekturversion mit Neustart anwenden möchten, um auf die Software Sun Cluster 3.1 8/05 bzw. die entsprechende Korrekturversion (Überarbeitung 12) aufzurüsten, müssen Sie folgende Schritte ausführen, bevor Sie den Cluster aktualisieren bzw. diese Korrekturversion anwenden.

ProcedureSo bereiten Sie das Aufrüsten auf die Software Sun Cluster 3.1 8/05 vor

Schritte
  1. Wählen Sie das Installationsverfahren für die Korrekturversion aus, die Ihren Anforderungen hinsichtlich der Verfügbarkeit entspricht:

    • Korrekturversion mit Neustart (Knoten)

    • Korrekturversion mit Neustart (Cluster und Firmware)

    Spezifische Verfahren für die Installation von Korrekturversionen sowie Tipps für die Verwaltung von Korrekturversionen finden Sie in Kapitel 8, Korrekturversionen für Sun Cluster-Software und Firmware in Sun Cluster Handbuch Systemverwaltung für Solaris OS.

  2. Wenden Sie eine der folgenden Korrekturversionen entsprechend Ihres Betriebssystems an:

    • 117909-11 Sun Cluster 3.1 Core Patch for SunOS 5.9 X86

    • 117950-11 Sun Cluster 3.1 Core Patch for Solaris 8

    • 117949-11 Sun Cluster 3.1 Core Patch for Solaris 9

    Sie müssen das Verfahren für die Installation der Korrekturversion vollständig durchführen, bevor Sie auf die Software Sun Cluster 3.1 8/05 bzw. die entsprechende Korrekturversion (Überarbeitung 12) aufrüsten.

Die Befehle für die Installation und den Neustart einer Zone schlagen nach der Installation von Sun Cluster fehl (6211453).

Zusammenfassung der Probleme Bei der Installation der Sun Cluster-Software wird exclude: lofs zu /etc/system hinzugefügt. Da lofs für die Funktionsweise von Zonen benötigt wird, schlägt sowohl zone install als auch zone boot fehl.

Problemumgehung: Führen Sie vor dem Erstellen einer neuen Zone folgendes Verfahren durch.

ProcedureSo führen Sie die Befehle zur Installation und zum Neustart einer Zone nach einer Sun Cluster-Installation aus

Schritte
  1. Wenn Sie Sun Cluster HA for NFS ausführen, schließen Sie alle Dateien, die zum lokalen Hochverfügbarkeits-Dateisystem gehören, das vom NFS-Server exportiert wird, aus der Planung für eine automatische Einhängung aus.

  2. Entfernen Sie auf allen Knoten aus der Datei /etc/system mögliche vorhandene Zeilen mit der Zeichenfolge exclude: lofs.

  3. Starten Sie den Cluster neu.

Unter Solaris 10 sind zusätzliche Schritte für die Wiederherstellung eines Cluster-Dateisystems erforderlich, das bei einem Neustart nicht korrekt eingehängt wurde (6211485).

Zusammenfassung der Probleme Unter Solaris 10 OS sind andere Verfahren für die Wiederherstellung eines Cluster-Dateisystems erforderlich, das beim Neustart nicht ordnungsgemäß eingehängt wurde, als unter früheren Versionen des Solaris-Betriebssystems. Anstelle der Anzeige einer Anmelde-Eingabeaufforderung schlägt möglicherweise der mountgfsys-Dienst fehl und der Knoten wird in den Wartungszustand gesetzt. Die Ausgabemeldungen entsprechen in etwa den folgenden:


WARNING - Unable to globally mount all filesystems.
Check logs for error messages and correct the problems.
 
May 18 14:06:58 pkaffa1 svc.startd[8]: system/cluster/mountgfsys:default misconfigured
 
May 18 14:06:59 pkaffa1 Cluster.CCR: /usr/cluster/bin/scgdevs:
Filesystem /global/.devices/node@1 is not available in /etc/mnttab.

Problemumgehung: Nachdem Sie das Einhängeproblem des Cluster-Dateisystems behoben haben, müssen Sie den mountgfsys-Dienst manuell online stellen. Führen Sie folgende Befehle aus, um den mountgfsys-Dienst online zu stellen und die Namensräume für die globalen Geräte zu synchronisieren:


# svcadm clear svc:/system/cluster/mountgfsys:default
# svcadm clear svc:/system/cluster/gdevsync:default

Der Neustart wird anschließend fortgesetzt.

Nicht unterstützte Aktualisierung auf Solaris 10 OS beschädigt die Datei /etc/path_to_inst (6216447).

Zusammenfassung der Probleme Die Software Sun Cluster 3.1 8/05 unterstützt die Aktualisierung auf die Version von März 2005 des Solaris 10 OS nicht. Beim Versuch, auf diese Version aufzurüsten, kann die Datei /etc/path_to_inst beschädigt werden. Diese beschädigte Datei verhindert das erfolgreiche Starten des Knotens. Die beschädigte Datei entspricht in diesem Fall etwa dem folgenden. Sie enthält doppelte Einträge für einige der Gerätenamen, mit dem Unterschied, dass dem physikalische Gerätenamen das Präfix /node@nodeid vorangestellt ist:


…
"/node@nodeid/physical_device_name" instance_number "driver_binding_name"
…
"/physical_device_name" instance_number "driver_binding_name"

Zudem tritt möglicherweise ein Fehler beim Starten einiger Solaris-Hauptdienste auf, einschließlich der Einhängung des Netzwerks und des Dateisystems. Möglicherweise werden Meldungen auf der Konsole ausgegeben, die über eine fehlerhafte Konfiguration des Dienstes informieren.

Problemumgehung: Führen Sie folgendes Verfahren durch.

ProcedureSo stellen Sie die beschädigte Datei /etc/path_to_inst wieder her

Das folgende Verfahren beschreibt, wie Sie eine Aktualisierung auf die Software Solaris 10 wiederherstellen, durch die die Datei /etc/path_to_inst beschädigt wurde.


Hinweis –

Mit diesem Verfahren werden keine anderen Probleme behoben, die im Zusammenhang mit einer Aktualisierung einer Sun Cluster-Konfiguration auf die Version vom März 2005 des Solaris 10-Betriebssystems stehen.


Führen Sie das Verfahren auf allen Knoten durch, die auf die Version vom März 2005 des Solaris 10-Betriebssystems aufgerüstet wurden.

Bevor Sie beginnen

Wenn ein Knoten nicht gestartet werden kann, starten Sie den Knoten aus dem Netzwerk oder von einer CD-ROM. Sobald der Knoten hochgefahren ist, führen Sie den Befehl fsck aus und hängen Sie das lokale Dateisystem in eine Partition, z. B. /a, ein. Verwenden Sie in Schritt 2 den Namen des eingehängten lokalen Dateisystems im Pfad zum /etc-Verzeichnis.

Schritte
  1. Melden Sie sich als Superbenutzer oder als Benutzer mit entsprechender Berechtigung am Knoten an.

  2. Wechseln Sie zum /etc-Verzeichnis.


    # cd /etc
    
  3. Überprüfen Sie, ob die Datei path_to_inst beschädigt ist.

    Sie erkennen anhand folgender Merkmale, ob die Datei path_to_inst beschädigt ist:

    • Die Datei enthält einen Eintragsblock, in dem die Zeichenfolge /node@nodeid den physikalischen Gerätenamen vorangestellt ist

    • Einige der Einträge werden erneut aufgelistet, jedoch ohne das Präfix /node@nodeid

    Wenn die Datei keine Einträge in diesem Format aufweist, liegt ein anderes Problem vor. Fahren Sie in diesem Fall nicht mit dem hier beschriebenen Verfahren fort. Kontaktieren Sie Ihren Sun-Vertreter, um Unterstützung zu erhalten.

  4. Wenn die Datei path_to_inst wie in Schritt 3 beschrieben beschädigt ist, führen Sie folgende Befehle aus.


    # cp path_to_inst path_to_inst.bak
    # sed -n -e "/^#/p" -e "s,node@./,,p" path_to_inst.bak > path_to_inst
    
  5. Überprüfen Sie die Datei path_to_inst, um sicherzustellen, dass die Datei repariert wurde.

    Die reparierte Datei sollte folgende Änderungen enthalten:

    • Das Präfix /node@nodeid wurde für alle Namen von physischen Geräten entfernt

    • Es sind keine doppelten Einträge für die Namen physischer Geräte vorhanden

  6. Stellen Sie sicher, dass die Datei path_to_inst schreibgeschützt ist.


    # ls -l /etc/path_to_inst
    -r--r--r--   1 root     root        2946 Aug  8  2005 path_to_inst
  7. Führen Sie einen Neustart im Nicht-Cluster-Modus aus, damit die neue Konfiguration wirksam wird.


    # reboot -- -rx
    
  8. Nachdem Sie alle betroffenen Knoten im Cluster repariert haben, fahren Sie mit Abschnitt So rüsten Sie Abhängigkeits-Software vor einer nicht laufenden Aufrüstung auf. in Sun Cluster Handbuch Softwareinstallation für Solaris OS fort, um die Aktualisierung fortzusetzen.

Zeitüberschreitung für Rückmeldung der CMM-Neukonfiguration; Ausführung des Knotens wird abgebrochen (6217017).

Zusammenfassung der Probleme In x86-Cluster mit ce-Übertragung wird ein Knoten bei hoher Auslastung möglicherweise aufgrund eines Split-Brain-Szenarios angehalten.

Problemumgehung: Fügen Sie für x86-Cluster, die eine PCI Gigaswift Ethernet-Karte im privaten Netzwerk verwenden, der Datei /etc/system Folgendes hinzu:


set ce:ce_tx_ring_size=8192

Hinzufügen oder Entfernen eines Knotens zu bzw. aus einem Cluster mit mehr als zwei Knoten unter Solaris 10 und bei Verwendung eines Hitachi-Speichers führt zum Absturz von Knoten (6227074).

Zusammenfassung der Probleme In einem Cluster mit mehr als zwei Knoten, der unter Solaris 10 und mit einem Hitachi-Speicher ausgeführt wird, kann es zu einem Absturz aller Knoten kommen, sobald dem Cluster ein Knoten hinzugefügt oder ein Knoten aus dem Cluster entfernt wird.

Problemumgehung: Derzeit ist keine Problemumgehung verfügbar. Sollte dieses Problem auftreten, kontaktieren Sie Ihren Sun-Vertreter, um eine Korrekturversion anzufordern.

Java ES 2005Q1 installer installiert Application Server 8.1 EE nicht vollständig (6229510).

Zusammenfassung der Probleme Application Server Enterprise Edition 8.1 kann nicht mithilfe des Java ES 2005Q1 installer installiert werden, wenn die Option Configure Later ausgewählt wurde. Bei ausgewählter Configure Later-Option wird die Platform Edition und nicht die Enterprise Edition installiert.

Problemumgehung: Wenn Sie Application Server Enterprise Edition 8.1 mithilfe des Java ES installer installieren möchten, wählen Sie die Option Configure Now. Wenn Sie die Option Configure Later auswählen, wird nur die Platform Edition installiert.

scvxinstall verursacht Neustart von rpcbind (6237044).

Zusammenfassung der Probleme Ein Neustart des SMF-Verbindungsdienstes kann Auswirkungen auf Solaris Volume Manager-Vorgänge haben. Durch die Installation von Veritas 4.1 VxVM-Paketen wird der SMF-Verbindungsdienst neu gestartet.

Problemumgehung: Starten Sie entweder den SMF-Verbindungsdienst neu oder installieren Sie VxVM 4.1 auf einem S10-Host und führen Sie anschließend einen Neustart von Solaris Volume Manager durch.


svcadm restart svc:/network/rpc/scadmd:default

Unter Solaris 10 können Sun Cluster-Datendienste nicht installiert werden, wenn Sun Cluster zuvor mithilfe des Java ES-installer installiert wurde (6237159).

Zusammenfassung der Probleme Dieses Problem tritt nur in Systemen unter Solaris 10 auf. Wenn Benutzer den Java ES-installer von der Sun Cluster Agents-CD-ROM für die Installation der Sun Cluster-Datendienste verwenden, nachdem Sun Cluster installiert wurde, schlägt die Ausführung des installer fehl und folgende Meldungen werden angezeigt:


The installer has determined that you must manually remove incompatible versions
of the following components before proceeding:

[Sun Cluster 3.1 8/05, Sun Cluster 3.1 8/05, Sun Cluster 3.1 8/05]

After you remove these components, go back.
Component                       Required By ...

1. Sun Cluster 3.1 8/05     HA Sun Java System Message Queue : HA Sun Java
                            System Message Queue
2. Sun Cluster 3.1 8/05     HA Sun Java System Application Server : HA Sun Java
									System Application Server
3. Sun Cluster 3.1 8/05     HA/Scalable Sun Java System Web Server : HA/Scalable
									Sun Java System Web Server
4. Select this option to go back to the component list. This process might take
									a few moments while the installer rechecks your
									system for installed components.

Select a component to see the details. Press 4 to go back the product list
[4] {"<" goes back, "!" exits}

Problemumgehung: Installieren Sie in Systemen unter Solaris 10 die Sun Cluster-Datendienste manuell mithilfe von pkgadd oder scinstall. Wenn zwischen den Sun Cluster-Datendiensten und gemeinsam genutzten Komponenten Abhängigkeiten bestehen, installieren Sie die gemeinsam genutzten Komponenten manuell mithilfe von pkgadd neu. Die folgenden Links enthalten eine Auflistung der gemeinsam genutzten Komponenten des jeweiligen Produkts:

Fehlermeldung /usr/sbin/smcwebserver: ... j2se/opt/javahelp/lib: does not exist (6238302).

Zusammenfassung der Probleme Beim Starten von Sun Web Console wird möglicherweise folgende Meldung angezeigt:


/usr/sbin/smcwebserver:../../../../j2se/opt/javahelp/lib: does not exist

Problemumgehung: Sie können diese Meldung ignorieren. Sie können /usr/j2se/opt eine Verknüpfung hinzufügen, die auf die korrekte Java Help 2.0 zeigt, indem Sie Folgendes eingeben:


# ln -s /usr/jdk/packages/javax.help-2.0 /usr/j2se/opt/javahelp

Aktualisierung des Betriebssystems von Solaris 9 auf Solaris 10 unter Sun Cluster 3.1 4/04 führt zum Absturz des Knotens (6245238).

Zusammenfassung der Probleme Nach einer Aktualisierung von Solaris 9 OS auf Solaris 10 OS in einem Cluster, der unter Sun Cluster 3.1 4/04 oder früher ausgeführt wird, führt das Starten eines Knotens im Nicht-Cluster-Modus zum Absturz des Knotens.

Problemumgehung: Installieren Sie eine der folgenden Korrekturversionen, bevor Sie die Aktualisierung von Solaris 9 auf Solaris 10 durchführen.

SunPlex Installer erstellt keine Ressourcen in Ressourcengruppen (6250327).

Zusammenfassung der Probleme Bei der Verwendung von SunPlex Installer für die Konfiguration der Datendienste Sun Cluster HA für Apache und Sun Cluster HA für NFS während einer Sun Cluster-Installation, erstellt SunPlex Installer die erforderlichen Gerätegruppen und Ressourcen in den Ressourcengruppen nicht.

Problemumgehung: Verwenden Sie SunPlex Installer nicht für die Installation und Konfiguration von Datendiensten. Folgen Sie stattdessen den Verfahren, die in den Handbüchern Sun Cluster Handbuch Softwareinstallation für Solaris OS und Sun Cluster Data Service for Apache Guide for Solaris OS oder Sun Cluster Data Service for NFS Guide for Solaris OS zur Installation und Konfiguration dieser Datendienste beschrieben sind.

HA-NFS-Änderungen zur Unterstützung von NFSv4; Behebung des Fehlers 6244819 (6251676).

Zusammenfassung der Probleme NFSv4 wird von Sun Cluster 3.1 8/05 nicht unterstützt.

Problemumgehung: In Solaris 10 wurde NFSv4 als neue Version des NFS-Protokolls eingeführt. Hierbei handelt es sich um das Standardprotokoll für Solaris 10-Clients und -Server. Die aktuelle Sun Cluster 3.1 8/05-Version unterstützt zwar Solaris 10, jedoch nicht die Verwendung des NFSv4-Protokolls zusammen mit dem Sun Cluster HA für NFS-Dienst in einem Cluster, um den NFS-Server hochverfügbar zu machen. Um sicherzustellen, dass keiner der NFS-Clients das NFSv4-Protokoll für die Kommunikation mit dem NFS-Server unter der Sun Cluster-Software verwendet, ändern Sie in der Datei /etc/default/nfs die Zeile NFS_SERVER_VERSMAX=4 in NFS_SERVER_VERSMAX=3. Dadurch wird sichergestellt, dass die Clients des Sun Cluster HA für NFS-Dienstes in dem Cluster ausschließlich das NFSv3-Protokoll verwenden.

HINWEIS: Diese Einschränkung und die oben beschriebene Problemumgehung betrifft nicht die Verwendung von Solaris 10-Cluster-Knoten als NFSv4-Clients. Die Cluster-Knoten können als NFSv4-Clients verwendet werden.

metaset-Befehl schlägt nach einem Neustart des rpcbind-Dienstes fehl (6252216).

Zusammenfassung der Probleme Die Ausführung des Befehls metaset nach einem Neustart des rpcbind-Dienstes schlägt fehl.

Problemumgehung: Stellen Sie sicher, dass keine Konfigurationsvorgänge im Sun Cluster-System ausgeführt werden, und unterbrechen Sie den rpc.metad-Prozess, indem Sie folgenden Befehl eingeben:


# pkill -9 rpc.metad

metaclust-Rückgabefehler führt zum Absturz des Knotens: RPC: Programm nicht registriert (6256220).

Zusammenfassung der Probleme Beim Herunterfahren des Clusters kann es aufgrund der Reihenfolge, in der die Dienste auf den Knoten gestoppt werden, zum Absturz mancher Knoten kommen. Wenn der RPC-Dienst vor dem RAC-Framework gestoppt wird, treten bei der Neukonfiguration der SVM-Ressource möglicherweise Fehler auf. Dies führt zu einem Fehler, der an das RAC-Framework zurückgegeben wird, wodurch es zu einem Absturz des Knotens kommen kann. Dieses Problem wurde mit Sun Cluster festgestellt, das unter dem RAC-Framework mit der SVM-Speicheroption ausgeführt wird. Die Sun Cluster-Funktionalität wird dadurch nicht beeinflusst.

Problemumgehung: Der Absturz des Knotens weist nicht auf einen schwerwiegenden Fehler hin und kann ignoriert werden. Es kann jedoch eine Bereinigung der gespeicherten Core-Dateien durchgeführt werden, um Speicherplatz im Dateisystem wieder freizugeben.

NIS-Adressenauflösung stürzt ab und verursacht einen Fehler im Failover-Dienst (6257112).

Zusammenfassung der Probleme Unter Solaris 10 OS wurde die Datei /etc/nsswitch.conf geändert, um NIS in den Eintrag ipnodes mit aufzunehmen.


ipnodes:    files nis [NOTFOUND=return]

Dadurch kommt es zu einem Absturz bei der Adressenauflösung, wenn auf NIS aufgrund eines NIS-Problems oder aufgrund einer Fehlfunktion in allen öffentlichen Netzwerkadaptern nicht mehr zugegriffen werden kann. Dieses Problem verursacht schließlich, dass die Failover-Funktionalität von Failover-Ressourcen oder gemeinsam genutzten Adressenressourcen nicht mehr verfügbar ist.

Problemumgehung: Führen Sie vor dem Erstellen eines logischen Hosts oder von gemeinsam genutzten Adressenressourcen Folgendes durch:

  1. Ändern Sie in der Datei /etc/nsswitch.conf den Eintrag ipnodes von [NOTFOUND=return] in [TRYAGAIN=0].


    ipnodes:    files nis [TRYAGAIN=0]
  2. Stellen Sie sicher, dass alle IP-Adressen für logische Hosts und gemeinsam genutzte Adressen zusätzlich zu der Datei /etc/inet/hosts auch der Datei /etc/inet/ipnodes hinzugefügt werden.

Die Ausführung von scinstall zur Aktualisierung der Sun Cluster-Datendienste für Sun Java System Application Server EE schlägt fehl (6263451).

Zusammenfassung der Probleme Beim Aktualisieren der Sun Cluster-Datendienste für Sun Java System Application Server EE von 3.1 9/04 auf 3.1 8/05 entfernt scinstall das Paket für j2ee nicht. Es wird folgende Meldung angezeigt:


Skipping "SUNWscswa" - already installed

Die Sun Cluster-Datendienste für Sun Java System Application Server EE werden nicht aktualisiert.

Problemumgehung: Entfernen Sie das Paket sap_j2ee manuell und fügen Sie es erneut hinzu. Verwenden Sie hierzu folgende Befehle:


# # pkgrm SUNWscswa
# pkgadd [-d device] SUNWscswa

scnas: NAS-Dateisystem wird beim Hochfahren nicht eingehängt (6268260).

Zusammenfassung der Probleme Die Verfügbarkeit des NFS-Dateisystems kann vor einem Failover oder der Ausführung von scswitch für die Suche des Datendienstes für den Knoten nicht überprüft werden. Wenn auf einem Knoten das NFS-Dateisystem nicht vorhanden ist, schlägt bei einem Wechsel/Failover auf diesen Knoten der Datendienst fehl und ein manuelles Eingreifen wird notwendig. Es wird ein Mechanismus wie beispielsweise HAStoragePlus benötigt, um vor einem Wechsel/Failover auf diesen Knoten die Verfügbarkeit des Dateisystems prüfen zu können.

Problemumgehung: Dateisysteme, die NAS-Filer (mit Einträgen in /etc/vfstab) verwenden, werden nicht mithilfe der Sun Cluster-Software eingehängt, sodass Probleme von der Sun Cluster-Software nicht erkannt werden. Sollte das Dateisystem nicht verfügbar sein, schlagen manche Datendienste, wie beispielsweise Sun Cluster HA for Oracle, bei der Ausführung von Datendienstmethoden wie START oder STOP fehl.

Ein Fehler bei der Ausführung dieser Methoden kann verschiedene Auswirkungen haben:

Führen Sie eines der folgenden Verfahren durch, um die oben beschriebenen Probleme zu vermeiden:

HADB-Fehlerüberwachung startet ma-Prozess nicht neu (6269813).

Zusammenfassung der Probleme Der Sun Cluster-Datendienst startet den Prozess ma nicht neu, wenn der Datendienst beendet oder abgebrochen wurde.

Problemumgehung: Dieses Verhalten ist vorgesehen und hat keine Auswirkungen auf den Datendienst.

rgmd führt bei paralleler Aktualisierung zum Absturz des Kerns (6271037).

Zusammenfassung der Probleme Bei dem Versuch, eine Ressource während einer parallelen Aktualisierung zu löschen, bevor alle Knoten unter der neuen Software ausgeführt werden, wird ein Absturz der Knoten verursacht. Löschen Sie keine Ressource, solange die neue Software noch nicht auf allen Knoten installiert ist.

Problemumgehung: Löschen Sie während einer parallelen Aktualisierung keine RGM-Ressource, solange die neue Software noch nicht auf allen Knoten installiert wurde.

Neustart der HADB-Datenbank schlägt nach dem Herunterfahren und Neustarten des Clusters fehl (6276868).

Zusammenfassung der Probleme Die HADB-Datenbank wird nach dem Neustart der Cluster-Knoten nicht neu gestartet. Der Benutzer hat keinen Zugriff auf die Datenbank.

Problemumgehung: Starten Sie einen Ihrer Verwaltungsdatendienste neu, indem Sie folgendes Verfahren durchführen. Sollte das Problem auch nach der Durchführung dieses Verfahrens weiter bestehen, löschen Sie die Datenbank und erstellen Sie sie neu.

ProcedureNeustarten eines Verwaltungsdatendienstes

Schritte
  1. Geben Sie auf dem herunterzufahrenden Knoten folgenden Befehl ein: Die Option -h darf nicht den Namen des Knoten enthalten, auf dem Sie den Verwaltungsagenten anhalten möchten.


    scswitch -z -g hadb resource grp -h node1, node2...
    
  2. Übertragen Sie die Ressourcengruppe zurück auf den ursprünglichen Knoten.


    scswitch —Z —g hadb resource grp
    
  3. Überprüfen Sie den Status der Datenbank. Warten Sie, bis der Datenbankstatus “angehalten” lautet.


    hadbm status -n database
    
  4. Starten Sie die Datenbank.


    hadbm start database
    

Nach dem Hinzufügen des SUNWiimsc-Pakets ist die Größe der Datei SUNW.iim gleich 0 (6277593).

Zusammenfassung der Probleme Das SUNWiimsc-Paket in sun_cluster_agents ist ungültig. Nach dem Hinzufügen dieses Pakets ist die Größe von SUNW.iim in /opt/SUNWiim/cluster gleich 0.

Problemumgehung: Ersetzen Sie das SUNW.iim-Paket und registrieren Sie es erneut, indem Sie folgende Schritte ausführen.

ProcedureSo installieren Sie das gültige SUNW.iim-Paket

Schritte
  1. Kopieren Sie das gültige SUNW.iim-Paket von der CD-ROM.


    # cp 2of2_CD/Solaris_arch/Product/sun_cluster_agents/Solaris_os
    /Packages/SUNWiimsc/reloc/SUNWiim/cluster/SUNW.iim /opt/SUNWiim/Cluster/SUNW.iim
    
  2. Entfernen Sie sämtliche vorhandene SUNW.iim-Registrierungen.


    # rm /usr/cluster/lib/rgm/rtreg/SUNW.iim
    
  3. Registrieren Sie den Datendienst mit Sun Cluster.


    sh 2of2_CD/Solaris_arch/Product/sun_cluster_agents/
    Solaris_os/Packages/SUNWiimsc/install/postinstall

Hinzufügen einer neuen IPMP-Gruppe unter der Verwendung von SunPlex Manager schlägt u. U. fehl (6278059).

Zusammenfassung der Probleme Der Versuch, eine neue IPMP-Gruppe unter Verwendung von SunPlex Manager hinzuzufügen, schlägt unter Umständen fehl und es wird folgende Meldung angezeigt.


An error was encountered by the system. If you were performing an action
when this occurred, review the current system state prior to proceeding.

Problemumgehung: Führen Sie entsprechend der ausgeführten IP-Version eines der folgenden Verfahren durch.

ProcedureHinzufügen einer neuen IPMP-Gruppe mit SunPlex Manager bei Verwendung von IPv4

Schritte
  1. Geben Sie folgenden Befehl ein:


    ifconfig interface inet plumb group groupname [addif address deprecated] 
    netmask + broadcast + up -failover
    
  2. Wenn eine Testadresse zur Verfügung gestellt wurde, aktualisieren Sie die Datei /etc/hostname .interface, um Folgendes hinzuzufügen:


    group groupname addif address netmask + broadcast + deprecated -failover up
  3. Wenn keine Testadresse zur Verfügung gestellt wurde, aktualisieren Sie die Datei /etc/hostname.interface, um Folgendes hinzufügen:


    group.groupname netmask + broadcast -failover up

ProcedureHinzufügen einer neuen IPMP-Gruppe mit SunPlex Manager bei Verwendung von IPv6

Schritte
  1. Geben Sie folgenden Befehl ein:


    ifconfig interface inet6 plumb up group groupname
    
  2. Aktualisieren Sie die Datei /etc/hostname6.interface, um folgende Einträge hinzuzufügen:


    group groupname plumb up
  3. Wenn die Datei /etc/hostname6.interface nicht vorhanden ist, erstellen Sie die Datei und fügen Sie die obigen Einträge hinzu.

HADB-Ressource führt nach dem Absturz eines Cluster-Knotens wiederholt einen Neustart durch (6278435).

Zusammenfassung der Probleme Nachdem die Ressource online gestellt wurde und einer der Knoten im Cluster abgestürzt ist (z. B. shutdown oder uadmin), führt die Ressource wiederholt einen Neustart auf den übrigen Knoten durch. Der Benutzer kann keinen Verwaltungsbefehl eingeben.

Problemumgehung: Um dieses Problem zu verhindern, melden Sie sich an einem einzelnen Knoten als Root-Benutzer oder als Benutzer mit entsprechender Zugriffsberechtigung an und erhöhen Sie den probe_timeout-Wert der Ressource auf 600 Sekunden, indem Sie folgenden Befehl eingeben:


scrgadm -c -j hadb resource -x Probe_timeout=600

Um die Änderung zu überprüfen, fahren Sie einen der Cluster-Knoten herunter und stellen Sie sicher, dass der Status der Ressource nicht eingeschränkt ist.

Unter Solaris 10 werden skalierbare Dienste nicht ordnungsgemäß ausgeführt, wenn sowohl öffentliche Netzwerkübertragungen sowie Sun Cluster-Übertragungen bge(7D)-gesteuerte Adapter verwenden (6278520).

Zusammenfassung der Probleme Die Lastenausgleichfunktion der skalierbaren Sun Cluster-Dienste funktioniert unter Solaris 10 nicht ordnungsgemäß, wenn sowohl die öffentlichen Netzwerkübertragungen als auch Sun Cluster-Übertragungen bge-gesteuerte Adapter verwenden. Zu den Plattformen mit integrierten NICs, die bge verwenden, zählen Sun Fire V210, V240 und V250.

Failover-Datendienste sind von diesem Fehler nicht betroffen.

Problemumgehung: Konfigurieren Sie die öffentlichen Netzwerkübertragungen und Cluster-Übertragungen nicht beide für die Verwendung von bge-gesteuerten Adaptern.

Das SunPlex-Manager-Systemprotokoll wird nicht angezeigt, wenn als Standardgebietsschema ein Multibyte-Gebietsschema festgelegt ist (6281445).

Zusammenfassung der Probleme Wenn das Standardgebietsschema von SunPlex-Manager ein Multibyte-Gebietsschema ist, kann das Systemprotokoll nicht angezeigt werden.

Problemumgehung: Legen Sie als Standardgebietsschema C fest oder zeigen Sie das Systemprotokoll (/var/adm/messages) manuell durch die Eingabe eines Befehls in einer Befehlszeilen-Shell an.

Knoten-Agent kann mit scswitch auf Knoten1 nicht online gestellt werden (6283646).

Zusammenfassung der Probleme Die Instanzen und Knoten-Agenten müssen so konfiguriert sein, dass diese an der Failover-IP-Adresse/-Hostnamen auf Verbindungen warten. Beim Erstellen des Knoten-Agenten und der Sun Java System Application Server-Instanzen wird standardmäßig der physikalische Knoten-Hostname festgelegt. Die HTTP-IP-Adresse und der Client-Hostname werden in der Datei domain.xml geändert. Der Administration Server der Domäne wird jedoch nicht neu gestartet, sodass die Änderungen nicht wirksam werden. Daher werden die Knoten-Agenten nur auf dem physikalischen Knoten, auf dem sie konfiguriert wurden, verfügbar gemacht und nicht auf den übrigen Knoten.

Problemumgehung: Ändern Sie in der Datei domain.xml im Abschnitt für den Knoten-Agenten die Eigenschaft client-hostname so, dass der Knoten-Agent an der IP-Adresse auf Verbindungen wartet. Starten Sie anschließend den Administration Server der Domäne neu, damit die Änderungen wirksam werden

SunPlex Manager und Cacao 1.1 unterstützen nur JDK 1.5.0_03 (6288183).

Zusammenfassung der Probleme Wenn SunPlex Manager unter Sun Cluster 3.1 8/05 mit Cacao 1.1 ausgeführt wird, wird nur JDK 1.5.0_03 unterstützt.

Problemumgehung: Installieren Sie JDK 1.5 manuell, indem Sie folgendes Verfahren durchführen.

ProcedureSo installieren Sie JDK 1.5 manuell

Schritte
  1. Fügen Sie JDK 1.5 aus dem gemeinsam genutzten JES 4-Komponentenverzeichnis hinzu (Anweisungen hierzu finden Sie in den Versionshinweisen zu JES 4).

  2. Beenden Sie Cacao.


    # /opt/SUNWcacao/bin/cacaoadm stop
    
  3. Starten Sie Cacao.


    # /opt/SUNWcacao/bin/cacaoadm start
    

Nach der Installation von SC3.1 (8/05) Patch 117949–14 unter Solaris 9 und dem Patch 117950–14 unter Solaris 8 treten beim Starten von Java VM Fehler auf (6291206).

Zusammenfassung der Probleme Dieser Fehler wurde unter Sun Cluster-Systemen beobachtet, die unter 3.1 (9/04) ausgeführt werden und auf Sun Cluster (8/05) durch die Anwendung des Patch 117949-14 mit Solaris 9 bzw. des Patch 117950-14 mit Solaris 8 aufgerüstet wurden. Folgende Fehlermeldungen werden beim Hochfahren des Rechners angezeigt:


# An unexpected error has been detected by HotSpot Virtual Machine:
#
#  SIGSEGV (0xb) at pc=0xfaa90a88, pid=3102, tid=1
#
# Java VM: Java HotSpot(TM) Client VM (1.5.0_01-b07 mixed mode, sharing)
# Problematic frame:
# C  [libcmas_common.so+0xa88]  newStringArray+0x70
#
# An error report file with more information is saved as /tmp/hs_err_pid3102.log
#
# If you would like to submit a bug report, please visit:
#   http://java.sun.com/webapps/bugreport/crash.jsp
#

Problemumgehung: Installieren Sie beim Aufrüsten von Sun Cluster 3.1 (9/04) auf Sun Cluster 3.1 (8/05) zusätzlich zum Haupt-Patch den SPM-Patch, indem Sie folgenden Befehl eingeben.

Führen Sie auf Systemen unter Solaris 8 folgenden Befehl aus, nachdem Sie den Patch 117950-14 angewendet haben:


 patchadd patchdir/118626-04

Führen Sie auf Systemen unter Solaris 9 folgenden Befehl aus, nachdem Sie Patch 117949-14 angewendet haben:


patchadd patchdir/118627-04 

Registrierung der Directory Server- und Administration Server-Ressource schlägt möglicherweise fehl (6298187).

Zusammenfassung der Probleme Die Registrierung der Ressource für Directory Server und Administration Server kann unter Umständen fehlschlagen. Folgende Systemmeldung wird angezeigt:


Registration file not found for "SUNW.mps" in /usr/cluster/lib/rgm/rtreg

Problemumgehung: Registrieren Sie die fehlende Datei im Verzeichnis pkg, indem Sie folgende Befehle direkt eingeben:

Die Kommunikation der Solaris 10-Cluster-Knoten mit Computern, die sowohl über IPv4- als auch über IPv6-Adressenzuordnungen verfügen, schlägt möglicherweise fehl (6306113).

Zusammenfassung der Probleme Wenn ein Sun Cluster-Knoten unter Solaris 10 nicht für IPv6-Schnittstellen für öffentliche Netzwerke konfiguriert ist (z. B. nicht für Cluster-Interconnects), kann der Knoten nicht auf Computer zugreifen, die sowohl über IPv4- als auch über IPv6-Adressenzuordnungen in einem Namensdienst verfügen, wie beispielsweise NIS. Pakete für Anwendungen, die IPv6-Adressen bevorzugt vor IPv4-Adressen verwenden (wie beispielsweise telnet oder traceroot) werden an die Cluster-Übertragungsadapter gesendet und verworfen.

Problemumgehung: Führen Sie entsprechend Ihrer Cluster-Konfiguration eines der folgenden Verfahren durch, um das Problem zu umgehen.