Sun Cluster 3.2 - Versionshinweise für Solaris OS

Bekannte Probleme und Programmierfehler

Die folgenden bekannten Probleme und Programmierfehler betreffen den Betrieb der Sun Cluster 3.2-Version. Die Fehler und Probleme sind in die folgenden Kategorien unterteilt:

Administration

Die Option clnode remove -f entfernt den Knoten bei der Solaris Volume Manager-Gerätegruppe nicht (6471834)

Zusammenfassung der Probleme Der Befehl -clnode remove --force sollte Knoten aus Metasets entfernen. Im Handbuch Sun Cluster System Administration Guide for Solaris OS werden Verfahren zum Entfernen eines Knotens aus dem Cluster angegeben. In diesen Verfahren werden die Benutzer angewiesen, vor der Ausführung von clnode remove den Befehl metaset für die Entfernung des Solaris Volume Manager-Plattensatzes auszuführen.

Problemumgehung: Wenn die korrekte Vorgehensweise nicht eingehalten wurde, kann es notwendig sein, die veralteten Knotendaten auf die übliche Weise aus CCR zu löschen: Verwenden Sie an einem aktiven Cluster-Knoten den Befehl metaset, um den Knoten aus den Solaris Volume Manager-Plattensätzen zu löschen. Führen Sie anschließend folgenden Befehl aus: clnode clear --force obsolete_nodename.

scsnapshot funktioniert bei Solaris 10 SUNWCluster-Metacluster nicht (6477905)

Zusammenfassung der Probleme Auf einem Cluster, der mit SUNWCuser, der Softwaregruppe für Solaris 10-Endbenutzer, installiert wurde, schlägt die Ausführung des Befehls scsnapshot möglicherweise fehl und es wird folgende Fehlermeldung ausgegeben:


# scsnapshot -o
…
/usr/cluster/bin/scsnapshot[228]: /usr/perl5/5.6.1/bin/perl:  not found

Problemumgehung: Führen Sie eine der beiden folgenden Optionen aus:

Einträge in der Eigenschaft Auxnodelist führen zu SEGV bei der Erstellung von Scalable-Ressourcen (6494243)

Zusammenfassung der Probleme Die Eigenschaft Auxnodelist der Ressource für gemeinsam genutzte Adressen kann während der Erstellung der Ressource für gemeinsam genutzte Adressen nicht verwendet werden. Dies führt zu Überprüfungsfehlern und zu SEGV, wenn die Scalable-Ressource erstellt wird, die von dieser Netzwerkressource für gemeinsamen genutzte Adressen abhängt. Die Meldung bezüglich des Überprüfungsfehlers der Scalable-Ressource weist folgendes Format auf:


Method methodname (scalable svc) on resource resourcename stopped or terminated 
due to receipt of signal 11

Außerdem wir die Kerndatei aus ssm_wrapper generiert. Die Benutzer können die Eigenschaft Auxnodelist nicht festlegen und somit die Cluster-Knoten nicht identifizieren, die als Host für die gemeinsam genutzte Adresse fungieren können, jedoch nie als primärer Cluster.

Problemumgehung: Erstellen Sie auf einem Knoten die Ressource für gemeinsam genutzte Adressen ohne Angabe der Eigenschaft Auxnodelist neu. Führen Sie anschließend den Befehl zur Erstellung einer Scalable-Ressource neu und verwenden Sie dabei die erneut erstellte Ressource für gemeinsam genutzte Adressen als Netzwerkressource.

Die clquorumserver-Befehle zum Starten und Stoppen sollten die Startstatus-Eigenschaft für den nächsten Bootvorgang festlegen (6496008)

Zusammenfassung der Probleme Der Quorum Server-Befehl clquorumserver legt den Status für den Startmechanismus für den nächsten Bootvorgang nicht korrekt fest.

Problemumgehung: Führen Sie folgende Aufgaben aus, um die Quorum Server-Software zu starten bzw. zu stoppen.

ProcedureStarten der Quorum Server-Software unter Solaris 10 OS

  1. Zeigen Sie den Status des quorumserver-Dienstes an.


    # svcs -a | grep quorumserver
    

    Wenn der Dienst deaktiviert ist, wird eine Ausgabe dieser Art angezeigt:


    disabled        3:33:45 svc:/system/cluster/quorumserver:default
  2. Starten Sie die Quorum Server-Software.

    • Wenn der quorumserver-Dienst deaktiviert ist, verwenden Sie den Befehl svcadm enable.


      # svcadm enable svc:/system/cluster/quorumserver:default
      
    • Wenn der quorumserver-Dienst online ist, verwenden Sie den Befehl clquorumserver.


      # clquorumserver start +
      

ProcedureStoppen der Quorum Server-Software unter Solaris 10 OS

    Deaktivieren Sie den quorumserver-Dienst.


    # svcadm disable svc:/system/cluster/quorumserver:default
    

ProcedureStarten der Quorum Server-Software unter Solaris 9 OS

  1. Starten Sie die Quorum Server-Software.


    # clquorumserver start +
    
  2. Benennen Sie die Datei /etc/rc2.d/.S99quorumserver in /etc/rc2.d/S99quorumserver um.


    # mv /etc/rc2.d/.S99quorumserver /etc/rc2.d/S99quorumserver
    

ProcedureStoppen der Quorum Server-Software unter Solaris 9 OS

  1. Stoppen Sie die Quorum Server-Software.


    # clquorumserver stop +
    
  2. Starten Sie die Quorum Server-Software.


    # mv /etc/rc2.d/S99quorumserver /etc/rc2.d/.S99quorumserver
    

Datendienste

Die Erstellung der Knotenagentenressource für Sun Cluster HA für Sun Java Systems Application Server ist erfolgreich, selbst wenn keine Ressourcenabhängigkeit von der Domain Administration Server (DAS)-Ressource festgelegt wurde (6262459)

Zusammenfassung der Probleme Beim Erstellen der Knotenagenten-Ressource (NA-Ressource) in Sun Cluster HA für Application Server wird die Ressource selbst dann erstellt, wenn keine Abhängigkeit von der DAS-Ressource festgelegt wurde. Der Befehl sollte mit einer Fehlermeldung abgebrochen werden, wenn die Abhängigkeit nicht festgelegt wurde, da die DAS-Ressource online sein muss, damit die NA-Ressource gestartet werden kann.

Problemumgehung: Vergewissern Sie sich beim Erstellen der NA-Ressource, dass Sie eine Ressourcenabhängigkeit von der DAS-Ressource festlegen.

Neue Variable in HA MySQL-Patch muss für alle neuen Instanzen konfiguriert werden (6516322)

Zusammenfassung der Probleme Der HA MySQL-Patch fügt der Datei mysql_config die neue Variable MYSQL_DATADIR hinzu. Diese neue Variable muss auf das Verzeichnis zeigen, in dem sich die MySQL-Konfigurationsdatei my.conf befindet. Wenn die Variable nicht ordnungsgemäß konfiguriert ist, schlägt die Datenbankvorbereitung mit mysql_register fehl.

Problemumgehung: Konfigurieren Sie die Variable MYSQL_DATADIR so, dass sie auf das Verzeichnis zeigt, in dem sich die MySQL-Konfigurationsdatei my.conf befindet.

Installation

Automatische Ermittlung mit InfiniBand-Konfigurationen kann zuweilen auf zwei Pfade hindeuten, die denselben Adapter verwenden (6299097)

Zusammenfassung der Probleme Wenn InfiniBand als Cluster-Transport verwendet wird und sich auf jedem Knoten zwei Adapter mit jeweils zwei Ports und insgesamt zwei Switches befinden, kann die automatische Adapter-Ermittlung des Dienstprogramms scinstall die Vermutung nahe legen, dass es sich um zwei Transportpfade handelt, die denselben Adapter verwenden.

Problemumgehung: Geben Sie die Transportadapter auf den beiden Knoten jeweils manuell an.

Support für IPv6-Scalable-Dienst nicht standardmäßig aktiviert (6332656)

Zusammenfassung der Probleme IPv6-Plumbing auf den Interconnects, das zur Weiterleitung von Paketen des IPv6-Scalable-Dienstes erforderlich ist, wird nicht mehr standardmäßig aktiviert. Die IPv6-Schnittstellen, die mithilfe des Befehls ifconfig angezeigt werden können, werden nicht mehr standardmäßig auf den Interconnect-Adaptern installiert.

Problemumgehung: Aktivieren Sie manuell die Unterstützung für Pv6-Scalable-Dienste.

ProcedureManuelle Aktivierung der Unterstützung für Pv6-Scalable-Dienste

Bevor Sie beginnen

Vergewissern Sie sich, dass Sie alle Cluster-Knoten für die Ausführung von IPv6-Diensten vorbereitet haben. Zu diesen Aufgaben gehören die ordnungsgemäße Konfiguration von Netzwerkschnittstellen, Server/Client-Anwendungssoftware, Namensdiensten und Routing-Infrastruktur. Wird dieser Vorgang nicht durchgeführt, können unerwartete Ausfälle der Netzwerkanwendungen auftreten. Weitere Informationen finden Sie in der Solaris-Systemverwaltungsdokumetntation für IPv6-Dienste.

  1. Fügen Sie auf jedem Knoten folgenden Eintrag zur Datei /etc/system hinzu.


    set cl_comm:ifk_disable_v6=0
    
  2. Aktivieren Sie auf jedem Knoten das IPv6-Plumbing auf den Interconnect-Adaptern.


    # /usr/cluster/lib/sc/config_ipv6
    

    Das Dienstprogramm config_ipv6stellt eine IPv6-Schnittstelle auf allen Cluster-Interconnect-Adaptern, die eine link-local-Adresse haben. Das Dienstprogramm aktiviert die ordnungsgemäße Weiterleitung von IPv6-Scalable-Service-Pakete über die Interconnects.

    Alternativ können Sie jeden Cluster-Knoten neu starten, um die Konfigurationsänderung zu aktivieren.

clnode add fügt keinen Hinweis aus einer XML-Datei hinzu, wenn die Datei Transportinformationen für eine direkte Verbindung enthält (6485249)

Zusammenfassung der Probleme Wenn versucht wird, den Befehl clnode add auf eine XML-Datei anzuwenden, die Transport mit direkter Verbindung verwendet, interpretiert der Befehl die Kabelinformationen falsch und fügt die falschen Konfigurationsinformationen hinzu. Als Folge davon kann der Verbindungsknoten den Cluster nicht verbinden.

Problemumgehung: Verwenden Sie den Befehl scinstall, um einen Knoten zum Cluster hinzuzufügen, wenn eine direkte Verbindung für den Cluster-Transport besteht.

Die Datei /etc/nsswitch.conf wird während der Installation außerhalb der globalen Zone nicht mit Informationen zu den Host- und Netzmasken-Datenbanken aktualisiert (6345227)

Zusammenfassung der Probleme Der Befehl scinstall aktualisiert die Datei /etc/nsswitch.conf zum Hinzufügen des Cluster-Eintrags für die Datenbanken hosts und netmasks. Durch diese Änderung wird die Datei /net/nsswitch.conf für die globale Zone aktualisiert. Wenn jedoch eine andere Zone als die globale Zone erstellt und installiert wird, erhält diese Zone eine eigene Kopie der Datei /etc/nsswitch.conf. Die /etc/nsswitch.conf-Dateien in den nicht globalen Zonen enthalten nicht den Cluster-Eintrag für die Datenbanken hosts und netmasks. Jeder Versuch, Cluster-spezifische private Hostnamen und IP-Adressen aus einer nicht globalen Zone mithilfe von getXbyY-Abfragen aufzulösen, scheitert.

Problemumgehung: Aktualisieren Sie manuell die Datei /etc/nsswitch.conf für nicht globale Zonen mit dem Cluster-Eintrag für die Datenbanken hosts und netmasks. Dadurch wird sichergestellt, dass die Cluster-spezifische Auflösungen der privaten Hostnamen und der IP-Adresse in den nicht globalen Zonen verfügbar sind.

Lokalisierung

Übersetzte Meldungen für Quorum Server werden als Bestandteil der Kernübersetzungspakete zugestellt (6482813)

Zusammenfassung der Probleme Übersetzte Meldungen für die Quorum Server-Verwaltungsprogramme, wie beispielsweise clquorumserver, werden als Bestandteil der Kernübersetzungspakete zugestellt. Daher werden Quorum Server-Meldungen ausschließlich in englischer Sprache angezeigt. Die Quorum Server-Übersetzungspakete müssen von den Kernübersetzungspaketen getrennt und auf dem Quorum Server-System installiert werden.

Problemumgehung: Installieren Sie folgende Pakete auf dem Host, auf dem die Quorum Server-Software installiert ist:

Wenn die japanische Manpage auf dem Quorum Server benötigt wird, installieren Sie das Paket SUNWjscman (japanische Manpage).

Das Installationsprogramm zeigt falsche Größe der Auslagerungsdatei für die Version von Sun Cluster 3.2 in vereinfachtem Chinesisch (6495984)

Zusammenfassung der Probleme Das Installationsprogramm von Sun Cluster 3.2 zeigt eine Warnmeldung über eine zu geringe Größe der Auslagerungsdatei, wenn die Version von Sun Cluster 3.2 in vereinfachtem Chinesisch installiert wird. Das Installationsprogramm gibt auf dem Bildschirm zur Überprüfung der Systemvoraussetzungen eine falsche Größe der Auslagerungsdatei von 0.0 KB an.

Problemumgehung: Wenn die Größe der Auslagerungsdatei über den Systemvoraussetzungen liegt, können Sie dieses Problem gefahrlos ignorieren. Das SC 3.2-Installationsprogramm im C-Gebietsschema (Englisch) kann zur Installation verwendet werden. Diese Version gibt bei der Überprüfung der Größe der Auslagerungsdatei den korrekten Wert an.

Laufzeit

SAP-Binärdatei cleanipc erfordert User_env-Parameter LD_LIBRARY_PATH (4996643)

Zusammenfassung der Probleme Der Befehl cleanipc schlägt fehl, wenn die Laufzeit-Verknüpfungs-Umgebung den Pfad /sapmnt/SAPSID/exe nicht enthält.

Problemumgehung: Fügen Sie als Solaris-Root-Benutzer den Pfad /sapmnt/SAPSID/exe zur Standardbibliothek in der Datei ld.config hinzu.

Geben Sie zur Konfiguration des Standardbibliothekspfads der Laufzeit-Verknüpfungs-Umgebung für 32–Bit-Anwendungen folgenden Befehl ein:


# crle -u -l /sapmnt/SAPSID/exe

Geben Sie zur Konfiguration des Standardbibliothekspfads der Laufzeit-Verknüpfungs-Umgebung für 64–Bit-Anwendungen folgenden Befehl ein:


# crle -64 -u -l /sapmnt/SAPSID/exe

Knoten stürzt aufgrund eines Fehlers beim metaclust-Rückgabeschritt ab: RPC: Programm nicht registriert (6256220)

Zusammenfassung der Probleme Wenn ein Cluster heruntergefahren wir, kann der UCMMD eine Neukonfiguration eines oder mehrerer Knoten einleiten, wenn einer der Knoten den Cluster kurz vor dem UCMMD verlässt. Wenn dieser Fall eintritt, stoppt das Herunterfahren den Befehl rpc.md auf dem Knoten, während der UCMMD versucht, den Rückgabeschritt durchzuführen. Im Rückgabeschritt tritt beim Befehl metaclust eine RPC-Zeitüberschreitung auf und der Schritt wird aufgrund des fehlenden rpc.mdcommd-Prozesses mit einem Fehler beendet. Dieser Fehler führt dazu, dass der UCMMD den Knoten abbricht, was zu dessen Absturz führen kann.

Problemumgehung: Sie können dieses Problem gefahrlos ignorieren. Beim erneuten Booten des Knotens erkennt die Sun Cluster-Software diesen Zustand und erlaubt dem UCMMD zu starten, obwohl bei der vorherigen Neukonfiguration ein Fehler auftrat.

Die Sun Cluster-Ressourcenüberprüfung akzeptiert den Hostnamen für IPMP-Gruppen für die Eigenschaft netiflist nicht (6383994)

Zusammenfassung der Probleme Während der Erstellung der Ressource für logische Hostnamen oder gemeinsam genutzte Adressen akzeptiert die Sun Cluster-Ressourcenüberprüfung den Hostnamen für IPMP-Gruppen für die Eigenschaft netiflist nicht.

Problemumgehung: Geben Sie bei der Erstellung der Ressource für logische Hostnamen und gemeinsam genutzte Adressen den Knotennamen anstatt der Knoten-ID für die IPMP-Gruppennamen an.

Aufrüstung

Das Skript vxlufinish gibt einen Fehler zurück, wenn die Root-Platte verkapselt ist (6448341)

Zusammenfassung der Probleme Dieses Problem tritt auf, wenn die ursprüngliche Platte eine Root-Verkapselung aufweist und ein Live-Upgrade von VxVM 3.5 unter Solaris 9 8/03 OS auf VxVM 5.0 unter Solaris 10 6/06 OS versucht wird. Das Skript vxlufinish schlägt fehl und es wird folgende Fehlermeldung ausgegeben:


#./vslufinish -u 5.10

    VERITAS Volume Manager VxVM 5.0
    Live Upgrade finish on the Solaris release <5.10>

    Enter the name of the alternate root diskgroup: altrootdg
ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory
ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory
Killed
ld.so.1: ugettxt: fatal: libvxscsi.so: open failed: No such file or directory
ERROR:vxlufinish Failed: /altroot.5.10/usr/lib/vxvm/bin/vxencap -d -C 10176
-c -p 5555 -g
    -g altrootdg rootdisk=c0t1d0s2
    Please install, if 5.0 or higher version of VxVM is not installed
    on alternate bootdisk.

Problemumgehung: Verwenden Sie stattdessen zur Aufrüstung die Standardaktualisierungsmethode oder die Aktualisierungsmethode mit Dual-Partition.

Wenden Sie sich an den Sun-Support oder Ihren Sun-Partner, um zu erfahren, ob eine Unterstützung für Sun Cluster 3.2 Live Upgrade für VxVM 5.0 zu einem späteren Zeitpunkt zur Verfügung steht.

Live Upgrade sollte Einhängen globaler Geräte vom Boot-Datenträger unterstützen (6433728)

Zusammenfassung der Probleme Beim Live Upgrade schlagen die Befehle lucreate und luupgrade fehl, mit denen DID-Namen in der alternativen Boot-Umgebung, die dem Eintrag /global/.devices/node@N entspricht, geändert werden.

Problemumgehung: Bevor Sie das Live Upgrade starten, führen Sie folgende Schritte auf allen Cluster-Knoten durch.

  1. Melden Sie sich als Superuser an.

  2. Sichern Sie die Datei /etc/vfstab.


    # cp /etc/vfstab /etc/vfstab.old
    
  3. Öffnen Sie die Datei /etc/vfstab zur Bearbeitung.

  4. Suchen Sie die Zeile, die /global/.device/node@N entspricht.

  5. Bearbeiten Sie den Eintrag für das globale Gerät.

    • Ändern Sie die DID-Namen in physische Namen.

      Ändern Sie /dev/did/{r}dsk/dYsZ in /dev/{r}dsk/cNtXdYs Z.

    • Entfernen Sie global aus dem Eintrag.

    Das folgende Beispiel zeigt den Namen des DID-Geräts d3s3, das /global/.devices/node@s entspricht, wobei der Name in den physischen Gerätenamen geändert und global aus dem Eintrag entfernt wurde:


    Original:
    /dev/did/dsk/d3s3    /dev/did/rdsk/d3s3    /global/.devices/node@2   ufs   2   no   global
    
    Changed:
    dev/dsk/c0t0d0s3     /dev/rdsk/c0t0d0s3    /global/.devices/node@2   ufs   2   no   -
  6. Nachdem Sie die Datei /etc/vfstab auf allen Cluster-Knoten geändert haben, führen Sie das Live Upgrade des Clusters durch. Unterbrechen Sie den Vorgang jedoch, bevor Sie einen Neustart in der aktualisierten alternativen Boot-Umgebung durchführen.

  7. Stellen Sie auf allen Knoten der aktuellen, nicht aktualisierten Boot-Umgebung die ursprüngliche Datei /etc/vfstab wieder her.


    # cp /etc/vstab.old /etc/vfstab
    
  8. Öffnen Sie in der alternativen Boot-Umgebung die Datei /etc/vfstab zur Bearbeitung.

  9. Suchen Sie die Zeile, die /global/.devices/node@N entspricht und ersetzen Sie den Strich (-) am Ende des Eintrags durch das Wort global.


    /dev/dsk/cNtXdYsZ    /dev/rdsk/cNtXdYsZ    /global/.devices/node@N   ufs   2   no   global
    
  10. Starten Sie den Knoten in der aktualisierten alternativen Boot-Umgebung neu.

    Die DID-Namen werden in der Datei /etc/vfstab automatisch ersetzt.

Das Skript vxlustart erstellt während eines Live Upgrade-Vorgangs keine alternative Bootumgebung (6445430)

Zusammenfassung der Probleme Dieses Problem tritt beim Aufrüsten von VERITAS Volume Manager (VxVM) während eines Sun Cluster Live Upgrade-Vorgangs auf. Das Skript vxlustart dient zur Aufrüstung von Solaris OS und VxVM von der Vorgängerversion. Das Skript schlägt fehl und es wird in etwa folgende Fehlermeldung ausgegeben:


# ./vxlustart -u 5.10 -d c0t1d0 -s OSimage

   VERITAS Volume Manager VxVM 5.0.
   Live Upgrade is now upgrading from 5.9 to <5.10>
…
ERROR: Unable to copy file systems from boot environment &lt;sorce.8876> to BE &lt;dest.8876>.
ERROR: Unable to populate file systems on boot environment &lt;dest.8876>.
ERROR: Cannot make file systems for boot environment &lt;dest.8876>.
ERROR: vxlustart: Failed: lucreate -c sorce.8876 -C /dev/dsk/c0t0d0s2 
-m -:/dev/dsk/c0t1d0s1:swap -m /:/dev/dsk/c0t1d0s0:ufs 
-m /globaldevices:/dev/dsk/c0t1d0s3:ufs -m /mc_metadb:/dev/dsk/c0t1d0s7:ufs 
-m /space:/dev/dsk/c0t1d0s4:ufs -n dest.8876

Problemumgehung: Verwenden Sie zur Aufrüstung des Clusters auf VxVM 5.0 die Standardaktualisierungsmethode oder die Aktualisierungsmethode mit Dual-Partition.

Wenden Sie sich an den Sun-Support oder Ihren Sun-Partner, um zu erfahren, ob eine Unterstützung für Sun Cluster 3.2 Live Upgrade für VxVM 5.0 zu einem späteren Zeitpunkt zur Verfügung steht.

vxio Bei verkapselter Root-Platte weicht die Geräteklasse zwischen den einzelnen Knoten voneinander ab (6445917)

Zusammenfassung der Probleme Bei Clustern, auf denen VERITAS Volume Manager (VxVM) ausgeführt wird, schlägt die Standardaktualisierungsmethode bzw. die Aktualisierungsmethode mit Dual-Partition fehl, wenn die Root-Platte verkapselt ist:

Der Cluster-Knoten stürzt nach der Aufrüstung ab und lässt sich nicht mehr booten. Dies liegt an den Änderungen an der Geräteklasse bzw. Gerätenummer, die von VxVM während der Aufrüstung vorgenommen wurden.

Problemumgehung: Heben Sie die Verkapselung der Root-Platte auf, bevor sie mit der Aufrüstung beginnen.


Achtung – Achtung –

Wenn das oben angegebene Verfahren nicht richtig befolgt wird, können ernsthafte unerwartete Probleme auf allen Knoten auftreten, die gerade aufgerüstet werden. Außerdem führt das Aufheben der Verkapselung bzw. die Verkapselung der Root-Platte (jedes Mal) zu einem zusätzlichen automatischen Neustart des Knotens, wodurch sich die Anzahl der erforderlichen Boot-Vorgänge während des Aufrüstens erhöht.


Nach einem Live Upgrade von Sun Cluster-Version 3.1 unter Solaris 9 auf Version 3.2 unter Solaris 10 können keine Zonen verwendet werden (6509958)

Zusammenfassung der Probleme Nach einem Live Upgrade von Sun Cluster-Version 3.1 unter Solaris 9 auf Version 3.2 unter Solaris 10 können Zonen mit der Cluster-Software nicht ordnungsgemäß verwendet werden. Die Ursache des Problems liegt darin, dass die pspool-Daten für die Sun Cluster-Pakete nicht erstellt werden. Das heißt, diese Pakete, die an die nicht globalen Zonen weitergegeben werden müssen (z. B. SUNWsczu), werden nicht ordnungsgemäß weitergegeben.

Problemumgehung: Führen Sie nach der Aktualisierung der Sun Cluster-Pakete mit dem Befehl scinstall -R jedoch vor dem Starten des Knotens im Cluster-Modus folgendes Skript zweimal aus:

ProcedureAnweisungen für die Verwendung des Skripts

Bevor Sie beginnen

Bereiten Sie das Skript auf eine der folgenden Arten vor und führen Sie es aus:

  1. Melden Sie sich als Superuser an.

  2. Erstellen Sie ein Skript mit folgendem Inhalt.

    #!/bin/ksh
    
    typeset PLATFORM=${PLATFORM:-`uname -p`}
    typeset PATHNAME=${PATHNAME:-/cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages}
    typeset BASEDIR=${BASEDIR:-/}
    
    cd $PATHNAME
    for i in *
    do
    	if pkginfo -R ${BASEDIR} $i >/dev/null 2>&1
    	then
    		mkdir -p ${BASEDIR}/var/sadm/pkg/$i/save/pspool
    		pkgadd -d . -R ${BASEDIR} -s ${BASEDIR}/var/sadm/pkg/$i/save/pspool $i
    	fi
    done
  3. Legen Sie die Variablen PLATFORM, PATHNAME und BASEDIR fest.

    Legen Sie diese Variablen entweder als Umgebungsvariablen fest oder bearbeiten Sie die Werte direkt im Skript.

    PLATFORM

    Der Name der Plattform Zum Beispiel sparc oder x86. Der Standardwert der Variable PLATFORM ist die Ausgabe des Befehls uname -p.

    PATHNAME

    Ein Pfad zu dem Gerät, von dem die Sun Cluster-Framework-Pakete bzw. -Datendienstpakete installiert werden können. Dieser Wert entspricht der Option -d im Befehl pkgadd.

    Für Sun Cluster-Framework-Pakete hat dieser Wert beispielsweise folgendes Format:


    /cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages

    Für Datendienstpakete hat dieser Wert beispielsweise folgendes Format:


    /cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster_agents/Solaris_10/Packages
    BASEDIR

    Der vollständige Pfadname des Verzeichnisses, das als Root-Pfad verwendet werden soll und mit der Option -R des Befehls pkgadd übereinstimmt. Legen Sie für ein Live Upgrade diesen Wert mit dem Root-Pfad fest, der mit der Option -R des Befehls scinstall verwendet wird. Der Standardwert der Variable BASEDIR ist das Root-(/-)Dateisystem.

  4. Führen Sie das Skript einmal für die Sun Cluster-Framework-Pakete und einmal für die Datendienstpakte aus.

    Nach Ausführung des Skripts wird für jedes Paket folgende Meldung in der Befehlseingabeaufforderung angezeigt:


    Transferring pkgname package instance

    Hinweis –

    Wenn das Verzeichnis pspool bereits für ein Paket vorhanden ist oder das Skript zweimal für denselben Paketsatz ausgeführt wird, wird folgender Fehler in der Befehlseingabeaufforderung angezeigt:


    Transferring pkgname package instance
    pkgadd: ERROR: unable to complete package transfer
        - identical version of pkgname already exists on destination device

    Diese Meldung ist harmlos und kann ignoriert werden.


  5. Nachdem Sie das Skript sowohl für die Framework-Pakete als auch für die Datendienstpakete ausgeführt haben, starten Sie die Knoten im Cluster-Modus.

Hinzufügen eines Knoten zu einem gepatchten Sun Cluster 3.2-Cluster ohne Hinzufügen des Sun Cluster 3.2-Core-Patches zum Knoten nicht möglich (6554107)

Zusammenfassung der Probleme Wenn Sie einen neuen Cluster-Knoten hinzufügen, der nicht über dieselben Patches wie die bestehenden Cluster-Knoten verfügt, kann es zu einem Ausfall der Cluster-Knoten kommen.

Problemumgehung: Stellen Sie vor dem Hinzufügen eines Knotens zum Cluster sicher, dass der neue Knoten über dieselben Patch-Versionen wie die bestehenden Cluster-Knoten verfügt. Wenn Sie diese Überprüfung nicht durchführen, kann es zu einem Ausfall der Knoten kommen.