Dieses Dokument enthält die folgenden Informationen zur SunTM Cluster 3.1 10/03-Software.
Informationen bezüglich der Sun Cluster 3.1 10/03-Datendienste finden Sie in Sun Cluster 3.1 Data Services 10/03 Versionshinweise.
Dieser Abschnitt enthält Informationen über neue Funktionen, Funktionalität und unterstützte Produkte der Sun Cluster 3.1 10/03-Software.
Das CRNP (Cluster Reconfiguration Notification Protocol) bietet ein Verfahren, mit dem sich die Anwendungen für Sun Cluster-Rekonfigurationsereignisse registrieren und anschließend asynchrone Benachrichtigungen über diese Ereignisse erhalten können. Für die Ereignisbenachrichtigung können sich sowohl Datendienste, die auf dem Cluster ausgeführt werden, als auch Anwendungen außerhalb des Clusters registrieren. Die Benachrichtigungen informieren über Änderungen bei Cluster-Mitgliedschaft, Ressourcengruppen und Ressourcenzustand.
Die Plattenpfadüberwachung (Disk-Path Monitoring, DPM) informiert die Systemadministratoren über Plattenpfadfehler bei primären und sekundären Pfaden. Ein Plattenpfadfehler-Erkennungsverfahren generiert ein Ereignis über das Cluster Event Framework und lässt manuelle Eingriffe zu.
Diese Funktion verteilt den IP-Verkehr, der an die logischen IP-Adressen pro Knoten gesendet wird, über alle privaten Interconnects. TCP-Verkehr wird auf Verbindungsbasis verteilt. UDP-Verkehr wird auf Paketbasis verteilt.
Die Integration der eRAS Knowledge Engine von Sun mit dem sccheck(1M)-Dienstprogramm verbessert die Leistung von sccheck beim Erkennen von "anfälligen” Konfigurationen erheblich, da viele vorhandene eRAS-Prüfungen genutzt werden. Anfälligkeitsberichte werden sowohl für einzelne Knoten als auch für den Cluster erstellt.
Diese Funktion ermöglicht die Verwendung der rollenbasierten Zugriffskontrolle (RBAC) für die Cluster-Verwaltung und den Cluster-Betrieb.
Diese Funktion erweitert die Sun Cluster-Funktionalität und unterstützt Cluster mit einem einzigen Knoten.
Diese Integration ermöglicht Entwicklern die Verwendung der Sun ONE Studio-Entwicklungsumgebung für das Erstellen von Agenten.
Diese Funktion verbessert scinstall(1M) dahingehend, dass alle Knoten eines neuen Clusters von einem einzigen Steuerpunkt aus installiert werden können. Außerdem sorgt sie für Kompatibilität mit dem Solaris Web Start-Installationstool.
Lokalisierte Sun Cluster-Komponenten sind nun in fünf Sprachen erhältlich und können mit dem Web Start-Programm installiert werden. Weitere Informationen hierzu finden Sie im Sun Cluster 3.1 10/03 Handbuch Softwareinstallation.
Sprache |
Lokalisierte Sun Cluster-Komponente |
---|---|
Französisch |
Installation Cluster Control Panel, CCP) Sun Cluster-Software Sun Cluster-Datendienste Sun Cluster-Modul für Sun Management Center SunPlex-Manager Sun Cluster-Datendienste |
Japanisch |
Installation Cluster Control Panel, CCP) Sun Cluster-Software Sun Cluster-Datendienste Sun Cluster-Modul für Sun Management Center SunPlex-Manager Sun Cluster-Online-Dokumentation Online-Dokumentation zum Cluster Control Panel Online-Dokumentation zu Sun Cluster-Datendiensten |
Vereinfachtes Chinesisch |
Installation Cluster Control Panel, CCP) Sun Cluster-Software Sun Cluster-Datendienste Sun Cluster-Modul für Sun Management Center SunPlex-Manager |
Traditionelles Chinesisch |
Installation Cluster Control Panel (CCP) Sun Cluster-Software Sun Cluster-Datendienste Sun Cluster-Modul für Sun Management Center SunPlex-Manager |
Koreanisch |
Installation Cluster Control Panel, CCP) Sun Cluster-Software Sun Cluster-Datendienste Sun Cluster-Modul für Sun Management Center SunPlex-Manager |
Informationen über Verbesserungen bei Datendiensten finden Sie in Sun Cluster 3.1 Data Services 10/03 Versionshinweise.
Dieser Abschnitt beschreibt die unterstützte Software und die Speicheranforderungen für Sun Cluster 3.1 10/03-Software.
Betriebsumgebung und Korrekturversionen – Unterstützte Solaris-Versionen und Korrekturversionen sind über die folgende URL erhältlich:
Weitere Informationen finden Sie im Abschnitt Korrekturversionen und erforderliche Firmware-Ebenen.
Datenträger-Manager
Unter Solaris 8 – Solstice DiskSuiteTM 4.2.1 sowie VERITAS Volume Manager 3.2 und 3.5.
Unter Solaris 9 – Solaris Volume Manager und VERITAS Volume Manager 3.5.
Wenn Sie von VERITAS Volume Manager (VxVM) 3.2 zu 3.5 aufrüsten, steht die CVM-Funktion (Cluster Volume Manager, CVM) erst dann zur Verfügung, wenn Sie den CVM-Lizenzschlüssel für Version 3.5 installiert haben. Unter VxVM 3.5 aktiviert der CVM-Lizenzschlüssel für Version 3.2 CVM nicht und muss zu einem CVM-Lizenzschlüssel für Version 3.5 aufgerüstet werden.
Dateisysteme –
Unter Solaris 8 – Solaris UFS sowie VERITAS File System 3.4 und 3.5.
Unter Solaris 9 – Solaris UFS und VERITAS File System 3.5.
Datendienste (Agenten) –Informationen über unterstützte Datendienste erhalten Sie in Sun Cluster 3.1 Data Services 10/03 Versionshinweise.
Sun Cluster 3.0-Datendienste können unter Sun Cluster 3.1 10/03-Software ausgeführt werden, mit den in Ausführen von Sun Cluster HA für Oracle 3.0 unter Sun Cluster 3.1 10/03-Software aufgeführten Ausnahmen.
Speicheranforderungen – Sun Cluster 3.1 10/03-Software erfordert mehr Speicher als für einen Knoten unter normaler Arbeitslast konfiguriert ist. Der zusätzliche Speicher entspricht 128 Mbyte plus zehn Prozent. Wenn also ein eigenständiger Knoten normalerweise 1 Gbyte Speicher benötigt, sind zusätzliche 256 Mbyte erforderlich, um die Speicheranforderungen zu erfüllen.
RSMAPI –Sun Cluster 3.1 10/03-Software unterstützt die Anwendungsprogrammierschnittstelle für gemeinsam genutzten Remote-Speicher (Anwendungsprogrammierschnittstelle (API) für gemeinsam genutzten Remote-Speicher (RSM) (RSMAPI) auf RSM-fähigen Interconnects, wie z. B. PCI-SCI.
Für die Version Sun Cluster 3.1 10/03 gelten folgende Einschränkungen:
Weitere bekannte Probleme bzw. Einschränkungen finden Sie im Abschnitt Bekannte Probleme und Programmierfehler.
Multihost-Band, CD-ROM und DVD-ROM werden nicht unterstützt.
Alternate Pathing (AP) wird nicht unterstützt.
Speichergeräte mit mehr als einem Pfad von einem bestimmten Cluster-Knoten zum Gehäuse werden nicht unterstützt, mit Ausnahme der folgenden Speichergeräte:
Sun StorEdgeTM A3500: Es werden jeweils zwei Pfade zu zwei Knoten unterstützt
Alle Geräte, die Sun StorEdge Traffic Manager unterstützen
EMC-Speichergeräte, die EMC PowerPath-Software verwenden
Wenn Sie einen Sun EnterpriseTM 420R-Server mit einer PCI-Karte in Steckplatz J4701 verwenden, muss die Versionsnummer der Hauptplatinen-Teilenummer 15 oder höher (501-5168-15 oder höher) sein. Die Teile- und Versionsnummer der Hauptplatine finden Sie an dem Platinenrand, der dem PCI-Steckplatz 1 am nächsten liegt.
Auf Clustern, die UDWIS E/A-Karten auf Steckplatz 0 eines Sun Enterprise 10000-Servers verwendeten, wurden Systemabstürze festgestellt. Installieren Sie auf diesen Servern keine UDWIS I/=O-Karte auf Steckplatz 0 einer Platine.
Wenn Sie die Anzahl der Knotenanschlüsse an ein Qorum-Gerät erhöhen oder senken, wird die Quorum-Stimmenanzahl nicht automatisch neu berechnet. Sie können die korrekte Quorum-Stimmenanzahl wieder herstellen, indem Sie alle Quorum-Geräte entfernen und sie dann der Konfiguration wieder hinzufügen.
SunVTSTM wird nicht unterstützt.
IPv6 wird nicht unterstützt.
RMS-Transporttypen (Remote Shared Memory) werden in der Dokumentation erwähnt, jedoch nicht unterstützt. Wenn Sie die RSMAPI verwenden, geben Sie dlpi als Transporttyp an.
Die SCI-Schnittstelle (SBus Scalable Coherent Interface) wird nicht als Cluster-Interconnect unterstützt. Die PCI-SCI-Schnittstelle wird jedoch unterstützt.
Logische Netzwerkschnittstellen sind der Verwendung durch Sun Cluster-Software vorbehalten.
Client-Anwendungen, die auf Cluster-Knoten ausgeführt werden, sollten keinen logischen IP-Adressen eines HA-Datendienstes zugeordnet werden. Während eines Failover können diese logischen IP-Adressen ausfallen, wodurch der Client die Verbindung verliert.
Wenn Sie von VERITAS Volume Manager (VxVM) 3.2 zu 3.5 aufrüsten, steht die Funktion Cluster Volume Manger (CVM) erst dann zur Verfügung, wenn Sie den CVM-Lizenzschlüssel für Version 3.5 installiert haben. Unter VxVM 3.5 aktiviert der CVM-Lizenzschlüssel für Version 3.2 CVM nicht und muss zu einem CVM-Lizenzschlüssel für Version 3.5 aufgerüstet werden.
In Solstice DiskSuite/Solaris Volume Manager-Konfigurationen, die Vermittler verwenden, muss die Anzahl der für einen Plattensatz konfigurierten Hosts genau zwei betragen.
DiskSuite Tool (Solstice DiskSuite metatool) und das Enhanced Storage-Modul von Solaris Management Console (Solaris Volume Manager) sind nicht mit der Sun Cluster 3.1 10/03-Software kompatibel.
Unter VxVM 3.2 oder höher kann Dynamic Multipathing (DMP) während der VXVM-Installation nicht über den scvxinstall-Befehl deaktiviert werden. Dieses Verfahren wird in Kapitel “Installing and Configuring VERITAS Volume Manager” in Sun Cluster 3.1 10/03 Handbuch Softwareinstallation beschrieben. Die Verwendung von Veritas Dynamic Multipathing wird in folgenden Konfigurationen unterstützt:
Ein einziger E/A-Pfad pro Knoten zum gemeinsam genutzten Cluster-Speicher.
Eine unterstützte Multipathing-Lösung (Sun Traffic Manager, EMC PowerPath, Hiatchi HDLM), die mehrere E/A-Pfade pro Knoten zum gemeinsam genutzten Cluster-Speicher verwaltet.
Einfache Root-Plattengruppen (rootdg erstellt auf einem einzigen Root-Plattenbereich) werden mit VxVM unter Sun Cluster 3.1 10/03-Software nicht unterstützt.
RAID 5-Software wird nicht unterstützt.
Quoten werden auf Cluster-Dateisystemen nicht unterstützt.
Sun Cluster 3.1 10/03 unterstützt die Verwendung des Schleifendateisystems (Loopback File System, LOFS) auf Cluster-Knoten nicht.
Der Befehl umount -f verhält sich genauso wie der umount-Befehl ohne die -f-Option. Er unterstützt kein erzwungenes Aushängen.
Der Befehl unlink( 1M) wird bei nicht leeren Verzeichnissen nicht unterstützt.
Der Befehl lockfs -d wird nicht unterstützt. Verwenden Sie lockfs -n als Abhilfemaßnahme.
Das Cluster-Dateisystem unterstützt keine Dateisystemfunktionen der Solaris-Software, die einen Kommunikationsendpunkt im Dateisystem-Namensraum setzen. Daher können Sie zwar ein UNIX-Domain-Socket erstellen, dessen Name ein Pfadname zum Cluster-Dateisystem ist. Dieses Socket würde jedoch kein Knoten-Failover überstehen. Zudem wäre auf die in einem Cluster-Dateisystem erstellten FIFOs oder benannten Datenaustauschkanäle kein globaler Zugriff möglich. Auch fattach kann dann von keinem anderen als dem lokalen Knoten aus verwendet werden.
Der Befehl wird nicht zum Ausführen von Binärdateien außerhalb des Cluster-Dateisystems unterstützt, die mithilfe der Option forcedirectio eingehängt werden.
Sie können ein Cluster-Dateisystem nicht mit der zum Zeitpunkt der Wiedereinhängung hinzugefügten Einhängeoption directio wieder einhängen.
Die Einhängeoption directio kann nicht für eine einzelne Datei unter Verwendung von directio eingestellt werden.
Die folgenden VxFS-Funktionen werden in einer Sun Cluster 3.1 10/03-Konfiguration nicht unterstützt.
Quick I/O
Schnappschüsse
Speicher-Checkpoints
Cache-Berater können verwendet werden, doch ihre Wirkung kann nur auf dem gegebenen Knoten beobachtet werden.
VERITAS CFS (erfordert VERITAS-Cluster-Funktion und VCS)
Alle anderen in einer Cluster-Konfiguration unterstützten VxFS-Funktionen und -Optionen werden von der Sun Cluster 3.1 10/03-Software unterstützt. In der VxFS-Dokumentation und in der Online-Dokumentation finden Sie weitere Einzelheiten zu den VxFS-Optionen, die in einer Cluster-Konfiguration nicht unterstützt werden.
Die folgenden VxFS-spezifischen Einhängeoptionen werden in einer Sun Cluster 3.1 10/03-Konfiguration nicht unterstützt.
convosync (O_SYNC konvertieren)
mincache
qlog, delaylog, tmplog
Informationen über die Verwaltung von VxFS-Cluster-Dateisystemen in einer Sun Cluster-Konfiguration finden Sie unter “Administering Cluster File Systems Overview” in Sun Cluster 3.1 10/03 Handbuch Systemverwaltung.
In diesem Abschnitt werden alle Einschränkungen für die Verwendung von IP Network Multipathing aufgeführt, die nur in einer Sun Cluster 3.1 10/03-Umgebung gelten, bzw. die von den in der Solaris-Dokumentation für IP Network Multipathing enthaltenen Informationen abweichen.
IPv6 wird nicht unterstützt.
Alle öffentlichen Netzwerkadapter müssen sich in IP Network Multipathing-Gruppen befinden.
In der Datei /etc/default/mpathd darf TRACK_INTERFACES_ONLY_WITH_GROUPS nicht von "Yes” zu "No” geändert werden.
Die meisten Verfahren, Richtlinien und Einschränkungen, die in der Solaris-Dokumentation für IP Network Multipathing angegeben sind, gelten auch in einer Cluster- bzw. Nicht-Cluster-Umgebung. Weitere Informationen über IP Network Multipathing-Einschränkungen entnehmen Sie bitte der entsprechenden Solaris-Dokumentation.
Version des Betriebssystems |
Anweisungen siehe |
---|---|
Solaris 8-Betriebsumgebung |
IP Network Multipathing-Verwaltungshandbuch |
Solaris 9-Betriebsumgebung |
“IP Network Multipathing-Themen” im Handbuch Systemverwaltung: IP-Serien |
Konfigurieren Sie Cluster-Knoten nicht als Router (Gateways). Wenn das System abstürzt, finden die Clients keinen alternativen Router und können nicht wieder hergestellt werden.
Konfigurieren Sie keine Cluster-Knoten als NIS or NIS+-Server. Cluster-Knoten können jedoch NIS oder NIS+-Clients sein.
Verwenden Sie keine Sun Cluster-Konfiguration, um einen hoch verfügbaren Start- oder Installationsdienst auf Client-Systemen einzurichten.
Verwenden Sie keine Sun Cluster-Konfiguration zum Einrichten eines rarpd-Dienstes.
Wenn Sie einen RPC-Dienst auf dem Cluster installieren, darf der Dienst folgende Programmnummern nicht verwenden: 100141, 100142 und 100248. Diese Nummern sind den Sun Cluster-Dämonen rgmd_receptionist, fed und pmfd vorbehalten. Wenn der von Ihnen installierte RPC-Dienst ebenfalls eine dieser Programmnummern verwendet, müssen Sie ihn dahingehend ändern, dass er eine andere Programmnummer verwendet.
Derzeit kann Sun StorEdge Network Data Replicator (SNDR) nur zusammen mit HAStorage verwendet werden. Diese Einschränkung gilt nur für die Ressourcengruppe, die den logischen Host enthält, den SNDR zum Replizieren verwendet. Anwendungsressourcengruppen können HAStoragePlus zusammen mit SNDR verwenden. Sie können das Failover-Dateisystem zusammen mit HAStoragePlus und SNDR verwenden, indem Sie HAStorage für die SNDR-Ressourcengruppe und HAStoragePlus für die Anwendungsressourcengruppe einsetzen, wobei die HAStorage- und HAStoragePlus-Ressourcen auf das gleiche zugrundeliegende DCS-Gerät zeigen. Derzeit wird eine Korrekturversion entwickelt, die den Einsatz von SNDR zusammen mit HAStoragePlus ermöglicht.
Die Ausführung von Prozessplanungsklassen mit hoher Priorität wird auf Cluster-Knoten nicht unterstützt. Prozesse, die in der Time-Sharing-Planungsklasse mit hoher Priorität ausgeführt werden sowie Prozesse, die in der Echtzeit-Planungsklasse ausgeführt werden, sind für die Ausführung auf Cluster-Knoten nicht geeignet. Die Sun Cluster-Software beruht auf Kernel-Threads, die in der Echtzeit-Planungsklasse nicht ausgeführt werden können. Time-Sharing-Prozesse, die mit einer höheren als der normalen Priorität ausgeführt werden, oder Echtzeitprozesse können verhindern, dass die Sun Cluster-Kernel-Threads erforderliche CPU-Zyklen erhalten.
Die Sun Cluster 3.1 10/03-Software kann nur für diejenigen Datendienste eingesetzt werden, die entweder mit dem Sun Cluster-Produkt geliefert werden oder mit der Sun Cluster-Datendienst-API eingerichtet werden.
Die Sun Cluster-Software verfügt derzeit über keinen HA-Datendienst für das sendmail(1M)-Untersystem. Das sendmail-Untersystem kann auf den einzelnen Cluster-Knoten ausgeführt werden. Die sendmail-Funktionalität ist jedoch nicht hoch verfügbar. Dies gilt auch für die Funktionalität zum Senden und Routen von Mail, die Warteschlange und Wiederholung.
Weitere Informationen und Einschränkungen für spezifische Datendienste finden Sie in Sun Cluster 3.1 Data Services 10/03 Versionshinweise.
Der Datendienst Sun Cluster HA für Oracle 3.0 kann unter der Sun Cluster 3.1 10/03-Software nur zusammen mit den folgenden Versionen des Solaris-Betriebssystens ausgeführt werden:
Solaris 8, 32-Bit-Version
Solaris 8, 64-Bit-Version
Solaris 9, 32-Bit-Version
Der Datendienst Sun Cluster HA für Oracle 3.0 kann nicht mit der Sun Cluster 3.1 10/03-Software unter der 64-Bit-Version von Solaris 9 ausgeführt werden.
Die folgenden bekannten Probleme und Programmierfehler betreffen den Betrieb der Sun Cluster 3.1 10/03-Version. Die aktuellsten Informationen finden Sie online in Sun Cluster 3.1 10/03 Release Notes Supplement unter http://docs.sun.com.
Problemübersicht: Die /etc/mnttab-Datei zeigt nicht den aktuellsten largefile-Status eines global eingehängten VxFS-Dateisystems an.
Abhilfemaßnahme: Verwenden Sie den fsadm-Befehl anstelle des /etc/mnttab-Eintrags, um den largefile-Status des Dateisystems zu überprüfen.
Problemübersicht: Manchmal können private Interconnect-Transportpfade, die am qfe-Adapter enden, nicht online gebracht werden.
Abhilfemaßnahme: Führen Sie die folgenden Schritte aus:
Identifizieren Sie den betroffenen Adapter mithilfe von scstat -W. Die Ausgabe zeigt alle Transportpfade für diesen Adapter mit einem der Pfadendpunkte im faulted-bzw. waiting-Zustand.
Verwenden Sie scsetup, um alle mit diesem Adapter verbundenen Kabel aus der Cluster-Konfiguration zu entfernen.
Verwenden Sie scsetup erneut, um den Adapter aus der Cluster-Konfiguration zu entfernen.
Fügen Sie den Adapter und die Kabel wieder hinzu.
Überprüfen Sie die angezeigten Pfade. Wenn das Problem weiterhin besteht, wiederholen Sie die Schritte 1–5 mehrmals.
Überprüfen Sie die angezeigten Pfade. Wenn das Problem weiterhin besteht, booten Sie den Knoten mit dem betroffenen Adapter erneut. Vergewissern Sie sich vor dem Neubooten des Knotens, dass der restliche Cluster über genügend Quorum-Stimmen verfügt, um das Neubooten zu überstehen.
Problemübersicht: Die Blockzählung einer Datei ist über die Cluster-Knoten hinweg nicht immer konsistent, wenn blockzuweisende Schreibvorgänge innerhalb einer Sparse-Datei erfolgt sind. Bei einem Cluster-Dateisystem auf UFS (oder VxFS 3.4) wird die Blockinkonsistenz über Cluster-Knoten hinweg innerhalb von ca. 30 Sekunden behoben.
Abhilfemaßnahme: Datei-Metadatenvorgänge, bei denen inode aktualisiert wird (touch, usw.) müssen den st_blocks-Wert so synchronisieren, dass anschließende Metadatenvorgänge konsistente st_blocks-Werte sicherstellen.
Problemübersicht: Der Datendienst Sun Cluster HA für Oracle verwendet den su-Befehl zum Starten und Stoppen der Datenbank. Es kann sein, dass der Netzwerkdienst nicht verfügbar ist, wenn das öffentliche Netzwerk eines Cluster-Knotens ausfällt.
Abhilfemaßnahme: Konfigurieren Sie unter Solaris 9 die /etc/nsswitch.conf-Dateien folgendermaßen, damit der Datendienst auch im Fall eines Netzwerkversagens korrekt startet und stoppt:
Ändern Sie auf jedem Knoten, der als Primärknoten für die oracle_server- oder oracle_listener-Ressource in Frage kommt, die /etc/nsswitch.conf-Datei dahingehend, dass sie die folgenden Einträge für passwd, group, publickey und project-Datenbanken enthält:
passwd:files
group:files
publickey:files
project:files
Problemübersicht: Das Aushängen eines Cluster-Dateisystems schlägt manchmal fehl, selbst wenn der fuser-Befehl zeigt, dass auf keinem Knoten Benutzer vorhanden sind.
Abhilfemaßnahme: Versuchen Sie das Aushängen erneut, nachdem alle asynchronen E/A für das zugrundeliegende Dateisystem beendet wurden.
Problemübersicht: Der Sun Cluster HA-Siebel-Agent überwacht einzelne Siebel-Komponenten nicht. Wenn ein Versagen einer Siebel-Komponente festgestellt wird, wird lediglich eine Warnmeldung in syslog protokolliert.
Abhilfemaßnahme: Starten Sie die Siebel-Server-Ressourcengruppe, in der sich Komponenten offline befinden, über folgenden Befehl neu: scswitch -R -h Knoten -g Ressourcengruppe.
Problemübersicht: Wenn Sie Sun Cluster-Unterstützung für RAC auf einem neu hinzugefügten Knoten installieren, stehen Oracle RAC-Instanzen nicht mehr zur Verfügung.
Abhilfemaßnahme: Um einen Knoten einem Cluster hinzuzufügen, der derzeit mit Oracle RAC-Unterstützung ausgeführt wird, ohne dabei die Verfügbarkeit der Oracle RAC-Datenbank zu verlieren, müssen besondere Installationsschritte ausgeführt werden. Das folgende Beispiel beschreibt den Übergang von einem 3–Knoten-Cluster zu einem a 4–Knoten-Cluster, wobei Oracle RAC auf den Knoten 1, 2 und 3 ausgeführt wird:
Installieren Sie die Sun Cluster-Software auf dem neuen Knoten (Knoten 4).
Hinweis: Installieren Sie die RAC-Unterstützungspakete zu diesem Zeitpunkt nicht.
Booten Sie den neuen Knoten im Cluster erneut.
Nachdem der neue Knoten dem Cluster hinzugefügt wurde, fahren Sie die Oracle RAC-Datenbank auf einem der Knoten herunter, auf dem sie bereits läuft (in diesem Beispiel Knoten 1).
Booten Sie den Knoten erneut, auf dem die Datenbank heruntergefahren wurde (Knoten 1).
Sobald der Knoten (Knoten 1) wieder hochgefahren wurde, starten Sie die Oracle-Datenbank auf diesem Knoten, um den Datenbankdienst wieder aufzunehmen.
Wenn ein einzelner Knoten in der Lage ist, die Datenbankarbeitslast zu tragen, fahren Sie die Datenbank auf den verbleibenden Knoten (Knoten 2 und 3) herunter und booten Sie diese Knoten erneut. Wenn mehr als ein Knoten erforderlich ist, um die Datenbankarbeitslast zu tragen, verfahren Sie für diese Knoten einzeln wie in Schritt 3 bis 5 beschrieben.
Nachdem alle Knoten neu gebootet wurden, können die Oracle RAC-Unterstützungspakete sicher auf dem neuen Knoten installiert werden.
Problemübersicht: Das remove-Skript deregistriert den den SUNW.gds-Ressourcentyp
nicht und zeigt folgende Meldung an:
Resource type has been un-registered already.
Abhilfemaßnahme: Nach der Verwendung des remove-Skripts können Sie SUNW.gds manuell deregistrieren. Alternativ können Sie den scsetup-Befehl oder SunPlex-Manager verwenden.
Problemübersicht: Die Verwendung
des Solaris-Befehls shutdown oder ähnlicher Befehle
(z. B. uadmin) zum Herunterfahren eines Cluster-Knotens
kann zu einem Knotenabsturz führen. Es wird folgende Meldung angezeigt:
CMM: Shutdown timer expired. Halting.
Abhilfemaßnahme: Wenden Sie sich an Ihren Sun-Kundendienstmitarbeiter, um Support zu erhalten. Der Absturz ist erforderlich, um einen garantiert sicheren Weg bereitzustellen, über den ein anderer Knoten im Cluster die Dienste übernehmen kann, die vom heruntergefahrenen Knoten gehostet wurden.
Problemübersicht: Cluster, die ce-Adapter auf dem privaten Interconnect verwenden, können Pfad-Zeitüberschreitungen und darauffolgende Knotenabstürze erleiden, wenn ein oder mehr Cluster-Knoten mehr als vier Prozessoren haben.
Abhilfemaßnahme: Stellen Sie den Parameter ce_taskq_disable im ce-Treiber ein, indem Sie auf allen Cluster-Knoten set ce:ce_taskq_disable=1 zur /etc/system-Datei hinzufügen und dann die Cluster-Knoten neu booten. Dadurch wird sichergestellt, dass Heartbeats und andere Pakete immer im Interrupt-Kontext zugestellt werden, wodurch Pfad-Zeitüberschreitungen und die darauf folgenden Knotenabstürze verhindert werden. Beachten Sie das Quorum beim Neubooten von Cluster-Knoten.
Problemübersicht: scrgadm verhindert das Hosten von logischen Hostnamen/gemeinsam genutzten Adressen, die zu einem anderen Teilnetz als dem Teilnetz der IPMP (NAFO)-Gruppe gehören.
Abhilfemaßnahme: Verwenden Sie folgende Form des scrgadm-Befehls:
scrgadm -a -j <resource> -t <resource_type> -g <resource_group> -x HostnameList=<logical_hostname> -x NetIfList=<nafogroup>@<nodeid>.
Beachten Sie, dass nodenames in der NetIfList nicht zu funktionieren scheinen.Verwenden Sie stattdessen nodeids.
Problemübersicht: Ein nicht erfolgreiches Failover/Switchover eines Dateisystems kann das Dateisystem in einen Fehlerzustand versetzen.
Abhilfemaßnahme: Hängen Sie das Dateisystem aus und anschließend wieder ein.
Problemübersicht: Wenn ein Knoten dem Cluster hinzugefügt wird, während ein Gerätegruppen-Switchover ausgeführt wird, können sowohl der hinzugefügte Knoten als auch der Switchover-Vorgang hängenbleiben. Die Zugriffsversuche auf Gerätedienste bleiben ebenfalls hängen. Dieses Problem tritt vermehrt auf, wenn ein Cluster mehr als zwei Knoten hat und wenn es sich bei dem in das Gerät eingehängte Dateisystem um ein VxFS-Dateisystem handelt.
Abhilfemaßnahme: Um diese Situation zu vermeiden, beginnen Sie kein Gerätegruppen-Switchover, während ein Knoten dem Cluster hinzugefügt wird. Wenn die Situation jedoch eintritt, müssen alle Cluster-Knoten neu gebootet werden, um den Zugriff auf die Gerätegruppen wieder herzustellen.
Problemübersicht: SunPlex-Manager enthält einen Datendienstinstallations-Assistenten, der einen hoch verfügbaren DNS-Dienst auf dem Cluster einrichtet. Wenn der Benutzer keine vorhandene DNS-Konfiguration bereitstellt, wie z. B. eine named.conf-Datei, versucht der Assistent, eine gültige DNS-Konfiguration zu generieren, indem er automatisch die vorhandene Netzwerk- und Namensdienstkonfiguration ermittelt. Dieser Vorgang schlägt jedoch in einigen Netzwerkumgebungen fehl, wodurch der Assistent ohne Ausgabe einer Fehlermeldung abstürzt.
Abhilfemaßnahme: Geben Sie bei Aufforderung durch den DNS-Datendienstinstallations-Assistenten von SunPlex-Manager eine vorhandene, gültige named.conf-Datei an. Sie können die beschriebenen DNS-Datendienstverfahren anwenden, um einen hoch verfügbaren DNS manuell auf dem Cluster zu konfigurieren.
Problemübersicht: SunPlex-Manager enthält einen Datendienstinstallations-Assistenten, der einen hoch verfügbaren Oracle-Dienst auf dem Cluster einrichtet, indem er die Oracle-Binärdateien installiert und konfiguriert und die Cluster-Konfiguration erstellt. Dieser Installations-Assistent funktioniert jedoch derzeit nicht richtig und v erursacht eine Reihe von Fehlern, je nach der Softwarekonfiguration der Benutzer.
Abhilfemaßnahme: Installieren und konfigurieren Sie den Oracle-Datendienst manuell auf dem Cluster. Die entsprechenden Verfahren werden in der Sun Cluster-Dokumentation beschrieben.
Problemübersicht: Beim Herunterfahren oder Neubooten eines Knotens kann der Knoten hängen, und die Sequenz zum Herunterfahren bzw. Nebooten wird nicht beendet. Das System hängt, nachdem folgende Meldung ausgegeben wurde: Failfast:Angehalten, weil alle userland-Dämone abgestürzt sind.
Abhilfemaßnahme: Geben Sie vor dem Herunterfahren bzw. Neubooten folgenden Befehl ein: psradm -f -a:
Zum Herunterfahren eines Knotens:
# scswitch -S -h <node>
# psradm -f -a
# shutdown -g0 -y -i0
Zum Neubooten eines Knotens:
# scswitch -S -h <node>
# psradm -f -a
# shutdown -g0 -y -i6
In Ausnahmefällen kann das Problem mit der vorgeschlagenen Abhilfemaßnahme nicht behoben werden.
Problemübersicht: Auf großen Systemen, auf denen Sun Cluster 3.x läuft, kann der Befehl shutdown -g0 -y -i6 zum Neubooten eines Knotens dazu führen, dass an der OK-Aufforderung folgende Meldung ausgegeben wird: Failfast: Halting because all userland daemons have died, instead of rebooting.
Abhilfemaßnahme: Wählen Sie eine der folgenden Abhilfemaßnahmen:
Halten Sie den Knoten an und geben Sie boot an der ok-Aufforderung ein.
Deaktivieren Sie failfasts, bevor Sie den Knoten neu booten:
# /usr/cluster/lib/sc/cmm_ctl -f
# shutdown -g0 -y -i6
Vergessen Sie nicht, failfasts nach dem Neubooten des Knotens wieder zu aktivieren:
# /usr/cluster/lib/sc/cmm_ctl -f
oder erhöhen Sie die failfast_panic_delay-Zeitüberschreitung vor dem Herunterfahren des Systems mit folgendem mdb-Befehl:
(echo 'cl_comm`conf+8/W 0t600000' ;
echo 'cl_comm`conf+c/W 0t600000') | mdb -kw
Dadurch wird die Zeitüberschreitung auf 600000 ms (10 Minuten) eingestellt.
Problemübersicht: Der Oracle DLM-Prozess wird während des Herunterfahrens nicht beendet und bewirkt, dass /var nicht ausgehängt werden kann.
Abhilfemaßnahme: Wählen Sie eine der folgenden Abhilfemaßnahmen:
Verwenden Sie keine separate /var-Partition.
Verwenden Sie reboot/halt anstelle von init bzw. shutdown.
Problemübersicht: Auf stark ausgelasteten Systemen kann es zur Zeitüberschreitung für das Oracle Listener-Testsignal kommen, was zu einem Neustart des Oracle Listener führt.
Abhilfemaßnahme: Die Zeitüberschreitung des Oracle Listener-Testsignals auf stark ausgelasteten Systemen kann vermieden werden, indem der Wert der Ressourceneigenschaft Thorough_probe_interval erhöht wird.
Die Testsignal-Zeitüberschreitung wird wie folgt berechnet:
10 Sekunden, wenn Thorough_probe_interval größer als 20 Sekunden ist.
60 Sekunden, wenn Thorough_probe_interval größer als 120 Sekunden ist.
Thorough_probe_interval/2 in allen anderen Fällen
Problemübersicht: Bei Einstellung auf TRUE gibt die Ressourcengruppeneigenschaft RG_system an, dass die Ressourcengruppe und deren Ressourcen zur Unterstützung der Cluster-Infrastruktur verwendet werden und keinen Benutzerdatendienst implementieren. Wenn RG_system auf TRUE eingestellt ist, verhindert RGM, dass der Systemadministrator die Gruppe bzw. deren Ressourcen versehentlich offline bringt oder ihre Eigenschaften ändert. In einigen Fällen kann es zu Knotenpanik kommen, wenn versucht wird, eine Ressourcengruppeneigenschaft zu ändern, nachdem die RG_system-Eigenschaft auf TRUE eingestellt wurde.
Abhilfemaßnahme: Bearbeiten Sie den Wert der Ressourcengruppeneigenschaft RG_system nicht.
Problemübersicht: Auf jedem Knoten, der ein Master der liveCache-Ressource sein kann, ist es möglich, dass der su-Befehl hängenbleibt, wenn das öffentliche Netz nicht aktiv ist.
Abhilfemaßnahme: Für Knoten, die Master der liveCache-Ressource sein können, werden folgende Änderungen an /etc/nsswitch.conf empfohlen, damit der su-Befehl nicht hängenbleibt, wenn das öffentliche Netz nicht aktiv ist:
passwd: files nis [TRYAGAIN=0]
Problemübersicht: Die Datendienstinstallations-Assistenten für Apache und Oracle in SunPlex-Manager unterstützen Solaris 9 und höher nicht.
Abhilfemaßnahme: Installieren Sie Oracle auf dem Cluster manuell mithilfe der Sun Cluster-Dokumentation. Wenn Sie Apache unter Solaris 9 (oder höher) installieren, fügen Sie die Solaris-Apache-Pakete SUNWapchr und SUNWapchu manuell hinzu, bevor Sie den Installations-Assistenten ausführen.
Problemübersicht: Wenn einem Cluster während der Installation und Konfiguration Knoten hinzugefügt werden, kann ein "RPC-Authentisierungsfehler" auftreten. Es werden Fehlermeldungen wie die Folgende angezeigt:
"RPC-Authentisierungsfehler”
"Nicht für Kommunikation mit <Sponsor-Knoten>” autorisiert.
"Überprüfung des Cluster-Namens fehlgeschlagen”
Abhilfemaßnahme: Wenn kein Domänenname eingestellt ist (d.h., wenn die Datei /etc/defaultdomain fehlt), stellen Sie den Domänennamen auf allen Knoten ein, die dem Cluster hinzugefügt werden, bevor Sie mit der Installation fortfahren. Verwenden Sie hierfür den Befehl domainname(1M). Z. B. # domainname xxx.
Dieser Abschnitt enthält Informationen über Korrekturversionen für Sun Cluster-Konfigurationen.
Sie müssen ein registrierter SunSolveTM-Benutzer sein, um die erforderlichen Korrekturversionen für das Sun Cluster-Produkt herunterladen zu können. Wenn Sie nicht über ein SunSolve-Konto verfügen, wenden Sie sich an Ihren Sun-Kundendienstmitarbeiter bzw. Vertreter, oder registrieren Sie sich online unter http://sunsolve.sun.com.
PatchPro ist ein Korrekturversionen-Verwaltungstool, das die Auswahl und das Herunterladen von Korrekturversionen erleichtert, die für die Installation bzw. Wartung der Sun Cluster-Software erforderlich sind. PatchPro stellt ein Sun Cluster-spezifisches Tool im "Interactive Mode” bereit, das die Installation der Korrekturversionen vereinfacht, sowie ein Tool im "Expert Mode”, das Ihnen dabei hilft, Ihre Konfiguration mit den neuesten Korrekturversionen zu warten. "Expert Mode” ist besonders nützlich, wenn Sie alle aktuellen Korrekturversionen möchten, und nicht nur jene für hohe Verfügbarkeit und Sicherheit.
Um auf das PatchPro-Tool für die Sun Cluster-Software zuzugreifen, gehen Sie zu http://www.sun.com/PatchPro/, klicken Sie auf "Sun Cluster,” und wählen Sie entweder "Interactive Mode” oder "Expert Mode”. Folgen Sie den Anweisungen im PatchPro-Tool, um Ihre Cluster-Konfiguration zu beschreiben und die Korrekturversionen herunterzuladen.
Die SunSolveTM-Online-Website bietet rund um die Uhr Zugriff auf die neuesten Informationen über Korrekturversionen, Software und Firmware für Sun-Produkte. Gehen Sie zur SunSolve Online-Website unter http://sunsolve.sun.com, um die aktuellsten Matrizes für unterstützte Software, Firmware und Korrekturversionen zu erhalten.
Informationen zu den Korrekturversionen für Sun Cluster 3.1 10/03 finden Sie mithilfe der "Info Docs”. Um die "Info Docs” anzuzeigen, melden Sie sich bei SunSolve an und greifen Sie vom oberen Bereich der Hauptseite aus auf "Simple Search” zu. Klicken sie auf der "Simple Search”-Seite in das Feld "Info Docs” und geben Sie Sun Cluster 3.1 in das Suchkriterienfeld ein. Daraufhin wird die "Info Doc”-Seite für die Sun Cluster 3.1-Software geöffnet.
Vor der Installation der Sun Cluster 3.1 10/03-Software und dem Installieren einer Korrekturversion auf eine Cluster-Komponente (Solaris-Betriebssystem, Sun Cluster-Software, Datenträger-Manager oder Datendienstsoftware, bzw. Plattenhardware) sollten Sie die "Info Docs” und alle README-Dateien für die Korrekturversionen lesen. Alle Cluster-Knoten müssen auf dem gleichen Korrekturversionsstand sein, damit der Cluster-Betrieb einwandfrei verläuft.
Spezifische Korrekturversionsverfahren und Tipps zur Korrekturversionenverwaltung finden Sie in “Patching Sun Cluster Software and Firmware” in Sun Cluster 3.1 10/03 Handbuch Systemverwaltung.
Die Sun Cluster 3.1 10/03-Benutzerdokumentationsreihe steht in PDF- und HTML-Format auf der Sun Cluster 3.1 10/03 CD-ROM zur Verfügung.
Die Benutzerdokumentationsreihe für Sun Cluster 3.1 Data Services 10/03 steht auf der Sun Cluster 3.1 Agents 10/03 CD-ROM zur Verfügung.
Die AnswerBook2TM-Serversoftware ist für das Lesen der Sun Cluster 3.1 10/03-Dokumentation nicht erforderlich. In der index.html-Datei der obersten Ebene jeder CD-ROM finden Sie weitere Informationen hierzu. Mithilfe dieser index.html-Datei können Sie die PDF- und HTML-Handbücher direkt von der CD-ROM aus lesen und auf Anleitungen zum Installieren der Dokumentationspakete zugreifen.
Das SUNWsdocs-Paket muss installiert werden, bevor Sie ein Sun Cluster-Dokumentationspaket installieren. Der Befehl pkgadd kann für die Installation des SUNWsdocs-Pakets verwendet werden. Das SUNWsdocs-Paket befindet sich im Verzeichnis SunCluster_3.1/Sol_ N/Packages/ auf der Sun Cluster 3.1 10/03 CD-ROM, wobei N entweder 8 für Solaris 8 oder 9 für Solaris 9 ist. Das SUNWsdocs-Paket wird auch automatisch installiert, wenn Sie das installer-Programm auf der Solaris 9 Dokumentations-CD-ROM ausführen.
Die Sun Cluster 3.1 10/03-Benutzerdokumentationsreihe besteht aus folgenden Sammlungen:
Die Sun Cluster 3.1 10/03-Softwaresammlung, die folgende Handbücher umfasst:
Sun Cluster 3.1 10/03 Konzepthandbuch
Sun Cluster 3.1 10/03 Entwicklerhandbuch Datendienste
Sun Cluster 3.1 Error Messages Guide
Die Sun Cluster 3.x-Hardwareverwaltungssammlung, die folgende Handbücher umfasst:
Sun Cluster Hardware Administration Manual for Solaris OS
Sun Cluster With Sun StorEdge 3310 Array Manual for Solaris OS
Sun Cluster With Sun StorEdge 3510 FC Array Manual for Solaris OS
Sun Cluster With Sun StorEdge 3900 or 6900 Series System Manual for Solaris OS
Sun Cluster With Sun StorEdge 6120 Array Manual for Solaris OS
Sun Cluster With Sun StorEdge 6320 System Manual for Solaris OS
Sun Cluster With Sun StorEdge 9900 Series Storage Device Manual for Solaris OS
Sun Cluster With Sun StorEdge A1000 or Netra st A1000 Array Manual for Solaris OS
Sun Cluster With Sun StorEdge A3500/A3500FC System Manual for Solaris OS
Sun Cluster With Sun StorEdge A5x00 Array Manual for Solaris OS
Sun Cluster With Sun StorEdge D1000 or Netra st D1000 Disk Array Manual for Solaris OS
Sun Cluster With Sun StorEdge D2 Array Manual for Solaris OS
Sun Cluster With Sun StorEdge MultiPack Enclosure Manual for Solaris OS
Sun Cluster With Sun StorEdge Netra D130 or StorEdge S1 Enclosure Manual for Solaris OS
Sun Cluster With Sun StorEdge T3 or T3+ Array Manual for Solaris OS
Die Sun Cluster 3.1 10/03-Referenzsammlung mit folgendem Handbuch:
Eine Auflistung der Handbücher der Reihe Sun Cluster 3.1 Data Services 10/03 finden Sie in Sun Cluster 3.1 Data Services 10/03 Versionshinweise.
Daneben können Sie über die Website docs.sun.comSM auf Sun Cluster-Dokumentation im Internet zugreifen. Dort können Sie das docs.sun.com-Archiv durchsuchen oder auf folgender Wbsite nach einem spezifischen Buchtitel oder Thema suchen:
Dieser Abschnitt führt bekannte Fehler oder Auslassungen in der Dokumentation, Onlinehilfe bzw. der Online-Dokumentation auf und beschreibt die Schritte zum Beheben dieser Probleme.
Sun Cluster 3.1 10/03 unterstützt RSM-Transport nicht. Alle Verweise auf RSM-Transport in der Sun Cluster-Dokumentationsreihe sind ungültig.
Dieser Abschnitt behandelt bekannte Fehler bzw. Auslassungen im Sun Cluster 3.1 10/03 Handbuch Softwareinstallation.
Dieser Abschnitt behandelt Fehler und Auslassungen in der SunPlex-Manager-Onlinehilfe.
In der Onlinehilfedatei mit dem Titel "Sun Cluster HA für Oracle,” ist im Abschnitt "Vor dem Start” ein Hinweis fehlerhaft.
Nicht richtig:
Wenn für shmsys und semsys in /etc/system keine Einträge vorhanden sind, werden für diese Variablen automatisch Standardwerte in /etc/system geschrieben. Das System muss dann neu gebootet werden. Überprüfen Sie anhand der Oracle-Installationsdokumentation, ob diese Werte für Ihre Datenbank korrekt sind.
Korrekt:
Wenn bei Installation des Oracle-Datendienstes keine Einträge für die shmsys- und semsys-Variablen in der /etc/system-Datei vorhanden sind, können Sie /etc/system öffnen und Standardwerte für diese Variablen einfügen. Das System muss dann neu gebootet werden. Überprüfen Sie anhand der Oracle-Installationsdokumentation, ob die eingegebenen Werte für Ihre Datenbank korrekt sind.
In der Tabelle unter "Rechteprofile für Sun Cluster-RBAC” sollten die Autorisierungen solaris.cluster.appinstall und solaris.cluster.install unter dem Cluster-Verwaltungsprofil statt unter dem Cluster-Bedienungsprofil aufgeführt sein.
In der Tabelle unter "Rechteprofile für Sun Cluster-RBAC,” sollte unter den Sun Cluster-Profilbefehlen sccheck( 1M) ebenfalls in der Befehlsliste enthalten sein.
Dieser Abschnitt behandelt Fehler und Auslassungen im Sun Cluster 3.1 10/03 Handbuch Systemverwaltung.
Einfache Root-Plattengruppen werden nicht als Plattentypen mit VERITAS Volume Manager unter Sun Cluster-Software unterstützt. Wenn Sie also das Verfahren "Wiederherstellen eines nicht verkapselten Root-(/)-Dateisystems (VERITAS Volume Manager)” im Sun Cluster 3.1 10/03 Handbuch Systemverwaltung ausführen, ignorieren Sie Schritt 9, in dem Sie aufgefordert werden festzulegen, ob die Root-Plattengruppe (rootdg) sich auf einem einzelnen Root-Plattenbereich befindet. Führen Sie Schritt 1 bis 8 aus, überspringen Sie Schritt 9 und fahren Sie ab Schritt 10 fort bis zum Ende des Verfahrens.
Wenn Sie die Anzahl der Knotenanschlüsse eines Qorum-Geräts erhöhen oder senken, wird die Quorum-Stimmenanzahl nicht automatisch neu berechnet. Sie können die korrekte Quorum-Stimmenanzahl wieder herstellen, indem Sie alle Quorum-Geräte entfernen und sie dann der Konfiguration wieder hinzufügen.
Einige Fehlermeldungen für die Sun Cluster-Datendienste sind nicht im Fehlermeldungshandbuch enthalten. Eine Liste der nicht in der Dokumentationsreihe enthaltenen Fehlermeldungen erhalten Sie in Sun Cluster 3.1 Datendienste 10/03 Versionshinweise.
Fehler und Auslassungen bezüglich der Datendienstdokumentation werden in Sun Cluster 3.1 Data Services 10/03 Versionshinweise beschrieben.
Dieser Abschnitt behandelt die Fehler und Auslassungen in der Sun Cluster-Online-Dokumentation.
In der Online-Dokumentation scconf_transp_adap_sci(1M) wird angegeben, dass SCI-Transportadapter zusammen mit dem rsm-Transporttyp verwendet werden können. Diese Angabe ist nicht richtig. SCI-Transportadapter bieten keine Unterstützung für den rsm-Transporttyp. SCI-Transportadapter unterstützen nur den dlpi-Transporttyp.
Der folgende Satz erläutert den Namen eines SCI–PCI-Adapters. Diese Information ist derzeit nicht in der Online-Dokumentation scconf_transp_adap_sci(1M) enthalten.
Neue Informationen:
Verwenden Sie den Namen sciN zum Angeben eines SCI-Adapters.
Der folgende Absatz erläutert das Verhalten des scgdevs-Befehls. Diese Information ist derzeit nicht in der Online-Dokumentation scgdevs(1M) enthalten.
Neue Informationen:
scgdevs(1M) führt nach Aufruf vom lokalen Knoten die Arbeit auf Remote-Knoten asynchron aus. Daher bedeutet eine Befehlsbeendigung auf dem lokalen Knoten nicht unbedingt die Beendigung auf dem gesamten Cluster.
In dieser Version wurde die aktuelle API_version auf 3 erhöht (vorheriger Wert: 2). Wenn Sie einen neuen Sun Cluster-Agent entwickeln und nicht möchten, dass der neue Ressourcentyp bei einer früheren Version der Sun Cluster-Software registriert wird, deklarieren Sie API_version=3 in der RTR-Datei des Agenten. Weitere Informationen hierzu finden Sie in rt_reg( 4) und rt_properties( 5).
Zum Anzeigen der Online-Dokumentation für Sun Cluster 3.0-Datendienst müssen Sie die neuesten Patches für die unter Sun Cluster 3.1 10/03-Software installierten Sun Cluster 3.0-Datendienste installieren. In Korrekturversionen und erforderliche Firmware-Ebenen erhalten Sie weitere Informationen zu diesem Punkt.
Nach Installation der Korrekturversion geben Sie den man -M-Befehl mit dem vollständigen Online-Dokumentationspfad als Argument aus, um auf die Online-Dokumentation für Sun Cluster 3.0-Datendienste zuzugreifen. Mit dem folgenden Beispiel wird die Online-Dokumentation für Apache geöffnet.
% man -M /opt/SUNWscapc/man SUNW.apache |
Sie können auch MANPATH ändern, damit auf die Online-Dokumentation für Sun Cluster 3.0-Datendienst zugegriffen werden kann, ohne den vollständigen Pfad anzugeben. Das folgende Beispiel beschreibt die Befehlseingabe für das Hinzufügen des Pfads zur Apache-Online-Dokumentation zu MANPATH und das Anzeigen der Apache-Online-Dokumentation.
% MANPATH=/opt/SUNWscapc/man:$MANPATH; export MANPATH % man SUNW.apache |