Dieses Dokument enthält folgende Informationen für die Software SunTM Cluster 3.1 Data Services 10/03.
Dieser Abschnitt beschreibt neue Funktionen und Funktionalität. Wenden Sie sich an Ihren Sun-Kundenberater, wenn Sie eine vollständige Liste der unterstützten Hardware und Software benötigen.
Der Server-Fehler-Monitor von Sun Cluster HA for Oracle wurde verbessert, um das Verhalten des Server-Fehler-Monitors wie folgt anpassen zu können:
Übergehen der für einen Fehler voreingestellten Aktion
Angeben einer Aktion bei einem Fehler ohne voreingestellte Aktion
Weitere Informationen finden Sie unter Sun Cluster 3.1 Data Service for Oracle Guide.
Der Datendienst Sun Cluster Support für Oracle Parallel Server/Real Application Clusters wurde verbessert, um die Verwaltung dieses Datendienstes durch Sun Cluster-Befehle zu ermöglichen.
Weitere Informationen finden Sie im Sun Cluster 3.1 Data Service for Oracle Parallel Server/Real Application Clusters Guide.
Folgende Ressourcentypen wurden bei Sun Cluster 3.1 Data Services 10/03 verbessert:
SUNW.oracle_server (siehe Sun Cluster 3.1 Data Service for Oracle Guide)
SUNW.apache (siehe Sun Cluster 3.1 Data Service for Apache Guide)
SUNW.iws (siehe Sun Cluster 3.1 Data Service for Sun ONE Web Server Guide)
Allgemeine Informationen über das Aufrüsten eines Ressourcentyps finden Sie unter “Upgrading a Resource Type” in Sun Cluster 3.1 Data Service Planning and Administration Guide
Sun Cluster 3.1 Data Services 10/03 unterstützt folgende Datendienste:
Sun Cluster HA für Apache Tomcat – Der Datendienst Sun Cluster HA für Apache Tomcat ermöglicht das geordnete Starten, das geordnete Herunterfahren, die Fehlerüberwachung und das automatische Failover des Apache Tomcat-Dienstes. Apache Tomcat funktioniert als Servlet-Motor hinter einem Apache-Webserver oder kann als eigenständiger Webserver mit Servlet-Motor konfiguriert werden.
Sun Cluster HA für MySQL – Der Datendienst Sun Cluster HA für MySQL ermöglicht das geordnete Starten, das geordnete Herunterfahren, die Fehlerüberwachung und das automatische Failover des MySQL-Dienstes. Die MySQL-Software bietet einen sehr schnellen, robusten und Multithread-Mehrbenutzer-Datenbankserver mit Structured Query Language (SQL). MySQL Server ist für aufgabenkritische, stark belastbare Produktivsysteme sowie für die Einbettung in Software mit Massenverbreitung ausgelegt.
Sun Cluster HA für Oracle E-Business Suite – Der Datendienst Sun Cluster HA für Oracle E-Business Suite ermöglicht das geordnete Starten, das geordnete Herunterfahren, die Fehlerüberwachung und das automatische Failover des Oracle E-Business Suite-Dienstes. Oracle E-Business Suite ist ein umfangreiches Paket betrieblicher Anwendungen zur effizienten Verwaltung von Geschäftsprozessen unter Verwendung einer einheitlichen, offenen Architektur. Diese Architektur ist ein Framework für mehrschichtige, dezentrale Datenverarbeitung, die Oracle-Produkte unterstützt.
Sun Cluster HA für SWIFTAlliance Access – Der Datendienst Sun Cluster HA für SWIFTAlliance Access ermöglicht das geordnete Starten, das geordnete Herunterfahren, die Fehlerüberwachung und das automatische Failover des SWIFTAlliance Access-Dienstes.
Dieser Abschnitt behandelt die unterstützte Software und die Speicheranforderungen für Sun Cluster 3.1.
Betriebsumgebung und Korrekturversionen – Unterstützte Solaris-Versionen und Korrekturversionen sind an folgender URL erhältlich:
Weitere Informationen finden Sie im Abschnitt Korrekturversionen und erforderliche Firmware-Ebenen.
Datenträger-Manager
Unter Solaris 8 – Solstice DiskSuiteTM 4.2.1 und VERITAS Volume Manager 3.2 und 3.5.
Unter Solaris 9 – Solaris Volume Manager und VERITAS Volume Manager 3.5.
Wenn Sie von VERITAS Volume Manager (VxVM) 3.2 zu 3.5 aufrüsten, steht die CVM-Funktion (Cluster Volume Manager, CVM) erst dann zur Verfügung, wenn Sie den CVM-Lizenzschlüssel für Version 3.5 installiert haben. Unter VxVM 3.5 aktiviert der CVM-Lizenzschlüssel für Version 3.2 CVM nicht und muss zu einem CVM-Lizenzschlüssel für Version 3.5 aufgerüstet werden.
Dateisysteme
Unter Solaris 8 – Solaris UFS sowie VERITAS File System 3.4 und 3.5.
Unter Solaris 9 – Solaris UFS und VERITAS File System 3.5.
Datendienste (Agenten) – Wenden Sie sich an Ihren Sun-Kundenberater, wenn Sie eine vollständige Liste der unterstützten Datendienste und Anwendungsversionen benötigen. Geben Sie die Ressourcentypen-Namen an, wenn Sie die Datendienste mithilfe des Dienstprogramms scinstall(1M) installieren. Sie sollten die Ressourcentypen-Namen auch angeben, wenn Sie die den Datendiensten zugeordneten Ressourcentypen mithilfe des Dienstprogramms scsetup(1M) registrieren.
Verfahren für die Version von Sun Cluster HA für Sun ONE Directory Server, welche iPlanet Directory Server 5.0 und 5.1 (plus Netscape HTTP, Versionen 4.11, 4.12, 4.13 und 4.16) verwendet, finden Sie in Sun Cluster 3.1 Data Service for Sun ONE Directory Server. Informationen zu späteren Versionen von iPlanet Directory Server (nun als Sun ONE Directory Server bezeichnet) finden Sie in der Produktdokumentation von Sun ONE Directory Server.
Datendienst |
Sun Cluster-Ressourcentyp |
---|---|
Sun Cluster HA für Apache |
SUNW.apache |
Sun Cluster HA für Apache Tomcat |
SUNW.sctomcat |
Sun Cluster HA für BroadVision One-To-One Enterprise |
SUNW.bv |
Sun Cluster HA für DHCP |
SUNW.gds |
Sun Cluster HA für DNS |
SUNW.dns |
Sun Cluster HA für MySQL |
SUNW.scmys |
Sun Cluster HA für NetBackup |
SUNW.netbackup_master |
Sun Cluster HA für NFS |
SUNW.nfs |
Sun Cluster HA für Oracle E-Business Suite |
SUNW.scebs |
Sun Cluster HA für Oracle |
SUNW.oracle_server SUNW.oracle_listener |
Sun Cluster Support für Oracle Parallel Server/Real Application Clusters |
SUNW.rac_framework SUNW.rac_udlm SUNW.rac_cvm SUNW.rac_hwraid |
Sun Cluster HA für SAP |
SUNW.sap_ci SUNW.sap_ci_v2 SUNW.sap_as SUNW.sap_as_v2 |
Sun Cluster HA für SAP liveCache |
SUNW.sap_livecache SUNW.sap_xserver |
Sun Cluster HA für SWIFTAlliance Access |
SUNW.scsaa |
Sun Cluster HA für Samba |
SUNW.gds |
Sun Cluster HA für Siebel |
SUNW.sblgtwy SUNW.sblsrvr |
Sun Cluster HA für Sun ONE Application Server |
SUNW.s1as |
Sun Cluster HA für Sun ONE Directory Server (Dieser Datendienst wurde früher als Sun Cluster HA für iPlanet Directory Server bezeichnet) |
SUNW.nsldap |
Sun Cluster HA für Sun ONE Message Queue |
SUNW.s1mq |
Sun Cluster HA für Sun ONE Web Server (Dieser Datendienst wurde früher als Sun Cluster HA für iPlanet Web Server bezeichnet) |
SUNW.iws |
Sun Cluster HA für Sybase ASE |
SUNW.sybase |
Sun Cluster HA für WebLogic Server |
SUNW.wls |
Sun Cluster HA für WebSphere MQ |
SUNW.gds |
Sun Cluster HA für WebSphere MQ Integrator |
SUNW.gds |
Speicheranforderungen – Sun Cluster 3.1-Software erfordert zusätzlichen Speicher zur normalen Arbeitslast-Konfiguration eines Knotens. Der zusätzliche Speicher beträgt 128 Mbyte plus 10%. Wenn z. B. ein Standalone-Knoten normalerweise 1 GB Speicher benötigt, benötigen Sie 256 MB zusätzlich, um die Speicheranforderungen zu erfüllen.
RSMAPI – Sun Cluster 3.1-Software unterstützt Anwendungsprogrammierschnittstelle (API) für gemeinsam genutzten Remote-Speicher (RSM) (RSMAPI) auf RSM-fähigen Interconnects, wie z. B. PCI-SCI.
Security Hardening von Sun Cluster verwendet die Hardening-Techniken der Solaris-Betriebsumgebung, die vom Sun BluePrints TM-Programm empfohlen werden, um grundlegende Security Hardening für Cluster zu erzielen. Solaris Security Toolkit automatisiert die Einführung von Security Hardening von Sun Cluster.
Die Security Hardening-Dokumentation von Sun Cluster ist unter http://www.sun.com/blueprints/0203/817–1079.pdf erhältlich. Sie können auf den Artikel auch über http://wwws.sun.com/software/security/blueprints zugreifen. Blättern Sie in dieser URL zur Überschrift “Architecture”. Sie finden dort den Artikel “Securing the Sun Cluster 3.x Software.”, in dem beschrieben wird, wie der Einsatz von Sun Cluster 3.1 in Solaris 8- und Solaris 9-Umgebungen sichergestellt werden kann. Die Beschreibung enthält Anleitungen zur Verwendung des Solaris Security Toolkit und andere von den Sun-Sicherheitsexperten empfohlene Security-Techniken für optimale Resultate.
Tabelle 1–2 Von Sun Cluster-Security Hardening unterstützte Datendienste
Datendienst-Agent |
Anwendungsversion: Failover |
Anwendungsversion: Scalable |
Solaris-Version |
---|---|---|---|
Sun Cluster HA für Apache |
1.3.9 |
1.3.9 |
Solaris 8, Solaris 9 (Version 1.3.9) |
Sun Cluster HA für Apache Tomcat |
3.3, 4.0, 4.1 |
3.3, 4.0, 4.1 |
Solaris 8, Solaris 9 |
Sun Cluster HA für DHCP |
S8U7+ |
Nicht verfügbar |
Solaris 8, Solaris 9 |
Sun Cluster HA für DNS |
mit OS |
Nicht verfügbar |
Solaris 8, Solaris 9 |
Sun Cluster HA für iPlanet Messaging Server |
6.0 |
4.1 |
Solaris 8 |
Sun Cluster HA für MySQL |
3.23.54a - 4.0.15 |
Nicht verfügbar |
Solaris 8, Solaris 9 |
Sun Cluster HA für NetBackup |
3.4 |
Nicht verfügbar |
Solaris 8 |
Sun Cluster HA für NFS |
mit OS |
Nicht verfügbar |
Solaris 8, Solaris 9 |
Sun Cluster HA für Oracle E-Business Suite |
11.5.8 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA für Oracle |
8.1.7 und 9i (32 und 64 Bit) |
Nicht verfügbar |
Solaris 8, Solaris 9 (HA Oracle 9iR2) |
Sun Cluster Support für Oracle Parallel Server/Real Application Clusters |
8.1.7 und 9i (32 und 64 Bit) |
Nicht verfügbar |
Solaris 8, Solaris 9 |
Sun Cluster HA für SAP |
4.6D (32 und 64 Bit) und 6.20 |
4.6D (32 und 64 Bit) und 6.20 |
Solaris 8, Solaris 9 |
Sun Cluster HA für SWIFTAlliance Access |
4.1, 5.0 |
Nicht verfügbar |
Solaris 8 |
Sun Cluster HA für Samba |
2.2.2, 2.2.7, 2.2.7a, 2.2.8, 2.2.8a |
Nicht verfügbar |
Solaris 8, Solaris 9 |
Sun Cluster HA für Siebel |
7.5 |
Nicht verfügbar |
Solaris 8 |
Sun Cluster HA für Sun ONE Application Server |
7.0, 7.0 Update 1 |
Nicht verfügbar |
Solaris 8,Solaris 9 |
Sun Cluster HA für Sun ONE Directory Server |
4.12 |
Nicht verfügbar |
Solaris 8, Solaris 9 (Version 5.1) |
Sun Cluster HA für Sun ONE Message Queue |
3.0.1 |
N/A |
Solaris 8, Solaris 9 |
Sun Cluster HA für Sun ONE Web Server |
6.0 |
4.1 |
Solaris 8, Solaris 9 (Version 4.1) |
Sun Cluster HA für Sybase ASE |
12.0 (32 Bit) |
Nicht verfügbar |
Solaris 8 |
Sun Cluster HA für BEA WebLogic Server |
7.0 |
Nicht verfügbar |
Solaris 8, Solaris 9 |
Sun Cluster HA für WebSphere MQ |
5.2, 5.3 |
Nicht verfügbar |
Solaris 8, Solaris 9 |
Sun Cluster HA für WebSphere MQ Integrator |
2.0.2, 2.1 |
Nicht verfügbar |
Solaris 8, Solaris 9 |
Der Datendienst Sun Cluster HA für Oracle 3.0 kann unter Sun Cluster 3.1 nur dann ausgeführt werden, wenn er unter folgenden Versionen der Solaris-Betriebsumgebung verwendet wird:
Solaris 8, 32-Bit-Version
Solaris 8, 64-Bit-Version
Solaris 9, 32-Bit-Version
Der Datendienst Sun Cluster HA für Oracle 3.0 kann nicht unter Sun Cluster 3.1 ausgeführt werden, wenn die 64-Bit-Version von Solaris 9 verwendet wird.
Beachten Sie die Dokumentation zur Option Oracle Parallel Fail Safe/Real Application Clusters Guard von Oracle Parallel Server/Real Application Cluster, da Sie die Hostnamen nach der Installation der Sun Cluster-Software nicht mehr ändern können.
Weitere Informationen über die Beschränkungen bei Hostnamen und Knotennamen finden Sie in der Dokumentation von Oracle Parallel Fail Safe/Real Application Clusters Guard.
Wenn der VERITAS NetBackup-Client ein Cluster ist, kann nur ein logischer Host als Client konfiguriert werden, weil nur eine bp.conf-Datei vorhanden ist.
Wenn der NetBackup-Client ein Cluster ist und einer der logischen Hosts im Cluster als NetBackup-Client konfiguriert ist, kann NetBackup von den realen Hosts keine Sicherungskopien herstellen.
Im Cluster, auf dem der Master-Server läuft, ist der Master-Server der einzige logische Host, von dem Sicherheitskopien erstellt werden können.
An den Master-Server können keine Sicherungsmedien angeschlossen werden, weshalb ein oder mehrere Medienserver erforderlich sind.
In einer Sun Cluster-Umgebung wird Robotersteuerung nur auf Medienservern und nicht auf dem auf Sun Cluster laufenden NetBackup-Master-Server unterstützt.
Ein Sun Cluster-Knoten darf nicht gleichzeitig NFS-Client von einem über Sun Cluster HA für NFS exportierten Dateisystem sein, das auf einem Knoten im selben Cluster unterstützt wird. Ein derartiges übergreifendes Einhängen von Sun Cluster HA für NFS ist nicht zulässig. Verwenden Sie das Cluster-Dateisystem, um Cluster-Knoten Dateien gemeinsam zu nutzen.
Anwendungen, die lokal im Cluster laufen, dürfen Dateien in einem über NFS exportierten Dateisystem nicht sperren. Sonst könnten lokale Sperren (z. B. flock(3UCB) oder fcntl(2)) die Möglichkeit zum Neustarten von Lock Manager (lockd) stören. Beim Neustart könnte einem gesperrten lokalen Prozess eine Sperre gewährt werden, die eigentlich einem Remote-Client vorbehalten sein sollte. Das würde ein unvorhersehbares Verhalten verursachen.
Sun Cluster HA für NFS erfordert, dass alle NFS-Client-Einhängungen “harte” Einhängungen sind.
Verwenden Sie für Sun Cluster HA für NFS keine Hostnamen-Alias für Netzwerk-Ressourcen. Bei NFS-Clients, in die Cluster-Dateisysteme eingehängt sind, die Hostnamen-Alias verwenden, können Probleme bei der Aufhebung von statd-Sperren auftreten.
Sun Cluster 3.1 unterstützt Secure NFS oder die Verwendung von Kerberos mit NFS, genauer gesagt, die Optionen secure und kerberos des Untersystems share_nfs(1M), nicht. Sun Cluster 3.1 unterstützt jedoch die Verwendung von sicheren Ports für NFS durch Hinzufügen des Eintrags set nfssrv:nfs_portmon=1 in der Datei /etc/system auf Cluster-Knoten.
Verwenden Sie nicht NIS für Benennungsdienste in einem Cluster, auf dem Sun Cluster HA für SAP liveCache läuft, da der NIS-Eintrag nur verwendet wird, wenn Dateien nicht verfügbar sind.
Weitere Verfahrensinformationen über die mit dieser Beschränkung zusammenhängenden Passwortanforderungen von nssswitch.conf finden Sie im Abschnitt “Preparing the Nodes and Disks” in Sun Cluster 3.1 Data Service for SAP liveCache Guide .
Bevor Sie mit der Solaris- und Sun Cluster-Installation beginnen, ermitteln Sie die Anforderungen für alle Datendienste. Wenn Sie diese Anforderungen nicht definieren, könnte der Installationsprozess nicht korrekt ausgeführt werden und möglicherweise müsste die Installation der Solaris- und Sun Cluster-Software vollkommen neu erfolgen.
Die Option Oracle Parallel Fail Safe/Real Application Clusters Guard von Oracle Parallel Server/Real Application Clusters hat z. B. besondere Anforderungen an die Hostnamen/Knotennamen, die Sie im Cluster verwenden. Sie müssen diesen Anforderungen nachkommen, bevor Sie die Sun Cluster-Software installieren, da Sie die Hostnamen nach der Installation der Sun Cluster-Software nicht mehr ändern können. Weitere Informationen über die Spezialanforderungen an die Hostnamen/Knotennamen finden Sie in der Dokumentation von Oracle Parallel Fail Safe/Real Application Clusters Guard.
NIS kann in einem Cluster, in dem liveCache läuft, nicht verwendet werden, da der NIS-Eintrag nur verwendet wird, wenn Dateien nicht verfügbar sind. Weitere Informationen finden Sie im Abschnitt Sun Cluster HA für SAP liveCache.
Oracle-Instanzen starten nicht, wenn ein SCI-Cluster-Interconnect auf einem Cluster-Knoten mithilfe des Befehls scconf -c -A deaktiviert wird.
Wenn Sie mit Solaris 9 arbeiten, fügen Sie folgende Einträge in die Konfigurationsdateien /etc/nsswitch.conf auf jedem Knoten ein, der Primärknoten für die Ressource oracle_server oder oracle_listener sein kann, damit der Datendienst bei einem Netzwerkfehler korrekt startet und stoppt:
passwd: files groups: files publickey: files project: files
Der Datendienst Sun Cluster HA für Oracle verwendet den Superbenutzer-Befehl su(1M), um die Datenbank zu starten und zu stoppen. Es kann sein, dass der Netzwerkdienst nicht verfügbar ist, wenn das öffentliche Netzwerk eines Cluster-Knotens ausfällt. Durch Hinzufügen der obigen Einträge stellen Sie sicher, dass der vsu-Befehl nicht auf die NIS/NIS+-Namensdienste verweist.
Wenn Sie mit Solaris 9 arbeiten, fügen Sie einen der folgenden Einträge für die publickey-Datenbank in die Konfigurationsdateien /etc/nsswitch.conf auf jedem Knoten ein, der Primärknoten für dieliveCache-Ressourcen sein kann, damit der Datendienst bei einem Netzwerkfehler korrekt startet und stoppt:
publickey: publickey: files publickey: files [NOTFOUND=return] nis publickey: files [NOTFOUND=return] nisplus
Der Datendienst Sun Cluster HA für SAP liveCache verwendet den dbmcli-Befehl, um liveCache zu starten und zu stoppen. Es kann sein, dass der Netzwerkdienst nicht verfügbar ist, wenn das öffentliche Netzwerk eines Cluster-Knotens ausfällt. Das Hinzufügen eines der obigen Einträge und die unter Sun Cluster 3.1 Data Service for SAP liveCache Guide beschriebenen Updates stellen sicher, dass sich die Befehle su und dbmcli nicht auf die Namensdienste NIS/NIS+ beziehen.
In einem System mit starker Belastung kann beim Oracle-Listener-Test die Zeit überschritten werden. Um zu verhindern, dass beim Oracle-Listener-Test die Zeit überschritten wird, erhöhen Sie den Wert der Erweiterungseigenschaft Thorough_probe_interval. Der Zeitüberschreitungs-Wert des Oracle-Listener-Tests hängt vom Wert der Erweiterungseigenschaft Thorough_probe_interval ab. Sie können den Zeitüberschreitungs-Wert des Oracle-Listener-Tests nicht unabhängig einstellen.
Der Sun Cluster HA-Siebel-Agent überwacht die einzelnen Siebel-Komponenten nicht. Wenn der Ausfall einer Siebel-Komponente festgestellt wird, wird nur eine Warnmeldung in syslog protokolliert.
Um dieses Problem zu umgehen, starten Sie die Siebel-Server-Ressourcengruppe, in der sich Komponenten offline befinden, mithilfe des Befehls scswitch -R -h Knoten -g Ressourcengruppe erneut.
Die Meldung “SAP xserver is not available” wird beim Start von SAP xserver ausgegeben, da xserver erst als verfügbar erachtet wird, wenn er voll hochgefahren ist und läuft.
Ignorieren Sie diese Meldung beim Start von SAP xserver.
Konfigurieren Sie die xserver-Ressource nicht als Failover-Ressource. Das Failover des Datendienstes Sun Cluster HA für SAP liveCache erfolgt nicht korrekt, wenn xserver als Failover-Ressource konfiguriert ist.
Um die Erweiterungseigenschaft Monitor_Uri_List von Sun Cluster HA for Apache und Sun Cluster HA for Sun ONE Web Server zu verwenden, müssen Sie die Eigenschaft Type_version auf 4 einstellen.
Sie können die Eigenschaft Type_version einer Ressource auch jederzeit auf 4 aufrüsten. Informationen über das Aufrüsten eines Ressourcentyps finden Sie im Abschnitt “Upgrading a Resource Type” in Sun Cluster 3.1 Data Service Planning and Administration Guide.
Manche Datendienste führen den su-Befehl aus, um die Benutzer-ID auf einen bestimmten Benutzer einzustellen. In der Solaris 9-Betriebsumgebung setzt der su-Befehl die Projekt-ID auf default zurück. Dadurch wird die von der Systemeigenschaft RG_project_name oder Resource_project_name vorgenommene Einstellung der Projekt-ID übergangen.
Um sicherzustellen, dass stets er korrekte Projektname verwendet wird, stellen Sie den Projektnamen in der Umgebungsdatei des Benutzers ein. Eine Methode zum Einstellen des Projektnamens in der Umgebungsdatei des Benutzers ist, der .cshrc-Datei des Benutzers folgende Zeile hinzuzufügen:
/usr/bin/newtask -p Projektname -c $$
Projektname ist der Projektname, der verwendet werden soll.
Dieser Abschnitt enthält Informationen über Korrekturversionen für die Sun Cluster-Konfiguration.
Sie müssen ein registrierter SunSolveTM-Benutzer sein, um die erforderlichen Korrekturversionen für das Sun Cluster-Produkt herunterladen zu können. Wenn Sie nicht über ein SunSolve-Konto verfügen, wenden Sie sich an Ihren Sun-Kundenberater oder Fachberater bzw. registrieren Sie sich online unter http://sunsolve.sun.com.
PatchPro ist ein Korrekturversionen-Verwaltungstool, das die Auswahl und das Herunterladen von Korrekturversionen erleichtert, die für die Installation bzw. Wartung der Sun Cluster-Software erforderlich sind. PatchPro stellt ein Sun Cluster-spezifisches Tool im “Interactive Mode” bereit, das die Installation der Korrekturversionen vereinfacht, sowie ein Tool im “Expert Mode”, das Ihnen dabei hilft, Ihre Konfiguration mit den neuesten Korrekturversionen zu warten. “Expert Mode” ist besonders nützlich, wenn Sie alle aktuellen Korrekturversionen möchten, und nicht nur jene für hohe Verfügbarkeit und Sicherheit.
Um auf das PatchPro-Tool für die Sun Cluster-Software zuzugreifen, gehen Sie zu http://www.sun.com/PatchPro/, klicken auf Sun Cluster und wählen dann “Interactive Mode” oder “Expert Mode”. Folgen Sie den Anweisungen im PatchPro-Tool, um Ihre Cluster-Konfiguration zu beschreiben und die Korrekturversionen herunterzuladen.
Die SunSolveTM-Online-Website bietet rund um die Uhr Zugriff auf die neuesten Informationen über Korrekturversionen, Software und Firmware für Sun-Produkte. Auf der Site SunSolve Online unter http://sunsolve.sun.com haben Sie Zugriff auf die aktuellsten Matrizes der unterstützten Software-, Firmware- und Programmkorrekturversionen.
Informationen über Korrekturversionen von Sun Cluster 3.1 finden Sie mithilfe der “Info Docs”. Zum Anzeigen der “Info Docs” melden Sie sich bei SunSolve an und wählen auf der Hauptseite oben die Option “Simple Search”. Klicken Sie auf der Seite “Simple Search” auf “Info Docs” und geben Sie Sun Cluster 3.1 in das Suchkriterienfeld ein. Dadurch wird die Seite “Info Docs” für Sun Cluster 3.1 aufgerufen.
Vor der Installation der Sun Cluster 3.1-Software und dem Installieren einer Korrekturversion für eine Cluster-Komponente (Solaris-Betriebsumgebung, Sun Cluster-Software, Datenträger-Manager oder Datendienst-Software oder Platten-Hardware) die Info Docs und alle den Korrekturversionen hinzugefügten README-Dateien. Alle Cluster-Knoten müssen auf dem gleichen Korrekturversionsstand sein, damit der Cluster-Betrieb einwandfrei verläuft.
Spezifische Korrekturversionsverfahren und Tipps zur Korrekturversionenverwaltung finden Sie in “ Patching Sun Cluster Software and Firmware” in Sun Cluster 3.1 10/03 System Administration Guide.
HAStorage wird in einer zukünftigen Version der Sun Cluster-Software möglicherweise nicht mehr unterstützt. Praktisch gleichwertige Funktionalität wird von HAStoragePlus unterstützt. Informationen über die Aufrüstung von HAStorage auf HAStoragePlus bei Verwendung von Cluster-Dateisystemen oder Gerätegruppen finden Sie im Abschnitt “ Upgrading from HAStorage to HAStoragePlus” in Sun Cluster 3.1 Data Service Planning and Administration Guide.
Folgende Lokalisierungspakete stehen auf der Datendienste-CD-ROM zur Verfügung. Wenn Sie Sun Cluster 3.1 installieren oder auf diese Version aufrüsten, werden die Lokalisierungspakete für die von Ihnen ausgewählten Datendienste automatisch installiert.
Sprache |
Paketbezeichnung |
Paketbeschreibung |
---|---|---|
Französisch
|
SUNWfscapc |
Sun Cluster Apache Web Server Component Französisch |
SUNWfscbv |
Sun Cluster BV Server Component Französisch |
|
SUNWfscdns |
Sun Cluster Domain Name Server Component Französisch |
|
SUNWfschtt |
Sun Cluster Sun ONE Web Server Component Französisch |
|
SUNWfsclc |
Sun Cluster-Ressourcentyp für SAP liveCache Französisch |
|
SUNWfscnb |
Sun Cluster-Ressourcentyp für netbackup_master server Französisch |
|
SUNWfscnfs |
Sun Cluster NFS Server Component Französisch |
|
SUNWfscnsl |
Sun Cluster Sun ONE Directory Server Component Französisch |
|
SUNWfscor |
Sun Cluster HA Oracle-Datendienst Französisch |
|
SUNWfscs1as |
Sun Cluster HA Sun ONE Application Server-Datendienst Französisch |
|
SUNWfscs1mq |
Sun Cluster HA Sun ONE Message Queue-Datendienst Französisch |
|
SUNWfscsap |
Sun Cluster SAP R/3 Component Französisch |
|
SUNWfscsbl |
Sun Cluster-Ressourcentypen für Siebel-Gateway und Siebel-Server Französisch |
|
SUNWfscsyb |
Sun Cluster HA Sybase-Datendienst Französisch |
|
SUNWfscwls |
Sun Cluster BEA WebLogic Server Component Französisch |
|
Japanisch
|
SUNWjscapc |
Sun Cluster Apache Web Server Component Japanisch |
SUNWjscbv |
Sun Cluster BV Server Component Japanisch |
|
SUNWjscdns |
Sun Cluster Domain Name Server Component Japanisch |
|
SUNWjschtt |
Sun Cluster Sun ONE Web Server Component Japanisch |
|
SUNWjsclc |
Sun Cluster-Ressourcentyp für SAP liveCache Japanisch |
|
SUNWjscnb |
Sun Cluster-Ressourcentyp für netbackup_master server Japanisch |
|
SUNWjscnfs |
Sun Cluster NFS Server Component Japanisch |
|
SUNWjscnsl |
Sun Cluster Sun ONE Directory Server Component Japanisch |
|
SUNWjscor |
Sun Cluster HA Oracle-Datendienst Japanisch |
|
SUNWjscs1as |
Sun Cluster HA Sun ONE Application Server-Datendienst Japanisch |
|
SUNWjscs1mq |
Sun Cluster HA Sun ONE Message Queue-Datendienst Japanisch |
|
SUNWjscsap |
Sun Cluster SAP R/3 Component Japanisch |
|
SUNWjscsbl |
Sun Cluster-Ressourcentypen für Siebel-Gateway und Siebel-Server Japanisch |
|
SUNWjscsyb |
Sun Cluster HA Sybase-Datendienst Japanisch |
|
SUNWjscwls |
Sun Cluster BEA WebLogic Server Component Japanisch |
Die vollständige Benutzerdokumentation von Sun Cluster 3.1 Data Services 10/03 steht im PDF- und HTML-Format auf der Sun Cluster Agents-CD-ROM zur Verfügung. Die AnswerBook2TM-Server-Software ist nicht erforderlich, um die Sun Cluster 3.1-Dokumentation zu lesen. Weitere Informationen finden Sie in der obersten Ebene der jeweiligen CD-ROM in der Datei index.html. Die Datei index.html ermöglicht Ihnen, die PDF- und HTML-Handbücher direkt von der CD-ROM zu lesen und auf die Anweisungen für die Installation der Dokumentationspakete zuzugreifen.
Das SUNWsdocs-Paket muss installiert werden, bevor Sie ein Sun Cluster-Dokumentationspaket installieren. Sie können den Befehl pkgadd verwenden, um das Paket SUNWsdocs vom Verzeichnis SunCluster_3.1/Sol_N/Packages/ der Sun Cluster-CD-ROM oder vom Verzeichnis components/SunCluster_Docs_3.1/Sol_ N/Packages/ der Sun Cluster Agents-CD-ROM zu installieren, wobei N für 8 bei Solaris 8 oder 9 bei Solaris 9 steht. Das Paket SUNWsdocs wird ebenfalls automatisch installiert, wenn Sie das Installationsprogramm von der Solaris 9-Dokumentations-CD ausführen.
Der Sun Cluster 3.1-Dokumentationssatz besteht aus folgenden Dokumentationsreihen:
Die Sun Cluster 3.1-Softwaresammlung, die folgende Handbücher umfasst:
Sun Cluster 3.1 10/03 Konzepthandbuch
Sun Cluster 3.1 10/03 Entwicklerhandbuch Datendienste
Sun Cluster 3.1 10/03 Error Messages Guide
Sun Cluster 3.1 10/03 Handbuch Softwareinstallation
Die Sun Cluster 3.x-Hardwareverwaltungssammlung, die folgende Handbücher umfasst:
Sun Cluster 3.x Hardware Administration Manual
Sun Cluster 3.x With Sun StorEdge 3310 Array Manual
Sun Cluster 3.x With Sun StorEdge 3510 FC Array Manual
Sun Cluster 3.x With Sun StorEdge 3900 or 6900 Series System Manual
Sun Cluster 3.x With Sun StorEdge 6120 Array Manual
Sun Cluster 3.x With Sun StorEdge 6320 System Manual
Sun Cluster 3.x With Sun StorEdge 9900 Series Storage Device Manual
Sun Cluster 3.x With Sun StorEdge A1000 or Netra st A1000 Array Manual
Sun Cluster 3.x With Sun StorEdge A3500/A3500FC System Manual
Sun Cluster 3.x With Sun StorEdge A5x00 Array Manual
Sun Cluster 3.x With Sun StorEdge D1000 or Netra st D1000 Disk Array Manual
Sun Cluster 3.x With Sun StorEdge D2 Array Manual
Sun Cluster 3.x With Sun StorEdge MultiPack Enclosure Manual
Sun Cluster 3.x With Sun StorEdge Netra D130 or StorEdge S1 Enclosure Manual
Sun Cluster 3.x With Sun StorEdge T3 or T3+ Array Partner-Group Configuration Manual
Sun Cluster 3.x With Sun StorEdge T3 or T3+ Array Single-Controller Configuration Manual
Die Sun Cluster 3.1 Data Services-Sammlung mit folgenden Handbüchern:
Sun Cluster 3.1 Data Service Planning and Administration Guide
Sun Cluster 3.1 Data Service for Apache Guide
Sun Cluster 3.1 Data Service for Apache Tomcat Guide
Sun Cluster 3.1 Data Service for BroadVision One-To-One Enterprise Guide
Sun Cluster 3.1 Data Service for DHCP Guide
Sun Cluster 3.1 Data Service for Domain Name Service (DNS) Guide
Sun Cluster 3.1 Data Service for MySQL Guide
Sun Cluster 3.1 Data Service for Netbackup Guide
Sun Cluster 3.1 Data Service for Network File System (NFS) Guide
Sun Cluster 3.1 Data Service for Oracle E-Business Suite Guide
Sun Cluster 3.1 Data Service for Oracle Guide
Sun Cluster 3.1 Data Service for Oracle Parallel Server/Real Application Clusters Guide
Sun Cluster 3.1 Data Service for SAP Guide
Sun Cluster 3.1 Data Service for SAP liveCache Guide
Sun Cluster 3.1 Data Service for SWIFTAlliance Access Guide
Sun Cluster 3.1 Data Service for Samba Guide
Sun Cluster 3.1 Data Service for Siebel Guide
Sun Cluster 3.1 Data Service for Sun ONE Application Server Guide
Sun Cluster 3.1 Data Service for Sun ONE Directory Server Guide
Sun Cluster 3.1 Data Service for Sun ONE Message Queue Guide
Sun Cluster 3.1 Data Service for Sun ONE Web Server Guide
Sun Cluster 3.1 Data Service for Sybase ASE Guide
Sun Cluster 3.1 Data Service for WebLogic Server Guide
Sun Cluster 3.1 Data Service for WebSphere MQ Guide
Sun Cluster 3.1 Data Service for WebSphere MQ Integrator Guide
Daneben können Sie über die Website docs.sun.comSM auf Sun Cluster-Dokumentation im Internet zugreifen. Dort können Sie das docs.sun.com-Archiv durchsuchen oder auf folgender Website nach einem spezifischen Buchtitel oder Thema suchen:
Dieser Abschnitt führt bekannte Fehler oder Auslassungen in der Dokumentation, Onlinehilfe bzw. der Online-Dokumentation auf und beschreibt die Schritte zum Beheben dieser Probleme.
Dieser Abschnitt behandelt Fehler und Auslassungen im Sun Cluster 3.1 Data Service for Oracle Parallel Server/Real Application Clusters Guide.
Der Abschnitt “Anforderungen für die Verwendung des Cluster-Dateisystems” enthält die falsche Angabe, dass Sie Datendateien im Cluster-Dateisystem speichern können. Sie dürfen keine Datendateien im Cluster-Dateisystem speichern. Ignorieren Sie deshalb in diesem Abschnitt alle Angaben zu Datendateien.
Wenn die Oracle-Software im Cluster-Dateisystem installiert wird, kann von allen Cluster-Knoten auf alle Dateien in dem Verzeichnis zugegriffen werden, das von der Umgebungsvariable ORACLE_HOME
angegeben wird.
Bei manchen Installationen kann es erforderlich sein, dass Oracle-Dateien oder -Verzeichnisse knotenspezifische Informationen verwalten. Sie können diese Anforderung erfüllen, indem Sie eine symbolische Verknüpfung verwenden, deren Ziel eine Datei oder ein Verzeichnis ist, die bzw. das für einen Knoten lokal ist. Ein derartiges Dateisystem gehört nicht zum Cluster-Dateisystems.
Um eine symbolische Verknüpfung für diesen Zweck zu verwenden, müssen Sie einen Bereich in einem lokalen Dateisystem zuordnen. Damit die Oracle-Anwendungen symbolische Verknüpfungen zu den Dateien in diesem Bereich herstellen können, müssen die Anwendungen auf die Dateien in diesem Bereich zugreifen können. Da sich die symbolische Verknüpfung im Cluster-Dateisystem befindet, sind die Verweise zu den Verknüpfungen von allen Knoten aus gleich. Deshalb müssen alle Knoten denselben Namensraum für den Bereich im lokalen Dateisystem aufweisen.
Führen Sie dieses Verfahren für jedes Verzeichnis aus, das knotenspezifische Informationen verwalten soll. Folgende Verzeichnisse sind im Allgemeinen zur Verwaltung knotenspezifischer Informationen erforderlich:
$ORACLE_HOME
/network/agent
$ORACLE_HOME
/network/log
$ORACLE_HOME
/network/trace
$ORACLE_HOME
/srvm/log
$ORACLE_HOME
/apache
Informationen über andere Verzeichnisse, die möglicherweise zur Verwaltung knotenspezifischer Informationen erforderlich sind, finden Sie in der Oracle-Dokumentation.
Erstellen Sie auf jedem Cluster-Knoten das lokale Verzeichnis, das die knotenspezifischen Informationen verwalten soll.
# mkdir -p lokales_Verzeichnis |
Gibt an, dass die nicht vorhandenen übergeordneten Verzeichnisse zuerst erstellt werden
Gibt den vollständigen Pfadnamen des von Ihnen erstellten Verzeichnisses an
Erstellen Sie auf jedem Cluster-Knoten eine lokale Kopie des globalen Verzeichnisses, das die knotenspezifischen Informationen verwalten soll.
# cp -pr globales_Verzeichnis übergeordnetes_lokales_Verzeichnis |
Gibt an, dass Besitzer, Gruppe, Berechtigungsmodi, Änderungszeitpunkt, Zugriffszeitpunkt und Zugriffskontrolllisten beibehalten werden.
Gibt an, dass das Verzeichnis und alle enthaltenen Dateien einschließlich aller Unterverzeichnisse und deren Dateien kopiert werden.
Gibt den vollständigen Pfad des von Ihnen kopierten globalen Verzeichnisses an. Dieses Verzeichnis befindet sich im Cluster-Dateisystem unter dem Verzeichnis, das durch die Umgebungsvariable ORACLE_HOME
angegeben wird.
Gibt das Verzeichnis auf dem lokalen Knoten an, das die lokale Kopie enthalten soll. Dieses Verzeichnis ist das übergeordnete Verzeichnis des Verzeichnisses, das Sie in Schritt 1 erstellt haben.
Ersetzen Sie das globale Verzeichnis, das Sie in Schritt 2 kopiert haben, durch eine symbolische Verknüpfung zur lokalen Kopie des globalen Verzeichnisses.
Entfernen Sie von einem beliebigen Cluster-Knoten das globale Verzeichnis, das Sie in Schritt 2 kopiert haben.
# rm -r globales_Verzeichnis |
Gibt an, dass das Verzeichnis und alle enthaltenen Dateien einschließlich aller Unterverzeichnisse und deren Dateien entfernt werden.
Gibt den Dateinamen und den vollständigen Pfad des globalen Verzeichnisses an, das Sie entfernen. Dieses Verzeichnis ist das globale Verzeichnis, das Sie in Schritt 2 kopiert haben.
Erstellen Sie von einem beliebigen Cluster-Knoten eine symbolische Verknüpfung von der lokalen Kopie des Verzeichnisses zum globalen Verzeichnis, das Sie in Schritt a entfernt haben.
# ln -s lokales_Verzeichnis globales_Verzeichnis |
Gibt an, dass es sich um eine symbolische Verknüpfung handelt
Gibt an, dass das lokale Verzeichnis, das Sie in Schritt 1 erstellt haben, die Quelle der Verknüpfung ist
Gibt an, dass das globale Verzeichnis, das Sie in Schritt a entfernt haben, das Ziel der Verknüpfung ist
Dieses Beispiel zeigt den Ablauf, um knotenspezifische Verzeichnisse in einem Zwei-Knoten-Cluster zu erstellen. Dieser Cluster ist wie folgt konfiguriert:
Die Umgebungsvariable ORACLE_HOME
gibt das Verzeichnis /global/oracle an.
Das lokale Dateisystem auf jedem Knoten befindet sich unter dem Verzeichnis /local.
Folgende Vorgänge werden auf jedem Knoten ausgeführt:
Um die erforderlichen Verzeichnisse im lokalen Dateisystem zu erstellen, werden folgende Befehle ausgeführt:
# mkdir -p /local/oracle/network/agent |
# mkdir -p /local/oracle/network/log |
# mkdir -p /local/oracle/network/trace |
# mkdir -p /local/oracle/srvm/log |
# mkdir -p /local/oracle/apache |
Um lokale Kopien der globalen Verzeichnisse zu erstellen, die knotenspezifische Informationen verwalten sollen, werden folgende Befehle ausgeführt:
# cp -pr $ORACLE_HOME/network/agent /local/oracle/network/. |
# cp -pr $ORACLE_HOME/network/log /local/oracle/network/. |
# cp -pr $ORACLE_HOME/network/trace /local/oracle/network/. |
# cp -pr $ORACLE_HOME/srvm/log /local/oracle/srvm/. |
# cp -pr $ORACLE_HOME/apache /local/oracle/. |
Folgende Vorgänge werden nur auf einem Knoten ausgeführt:
Um die globalen Verzeichnisse zu entfernen, werden folgende Befehle ausgeführt:
# rm -r $ORACLE_HOME/network/agent |
# rm -r $ORACLE_HOME/network/log |
# rm -r $ORACLE_HOME/network/trace |
# rm -r $ORACLE_HOME/srvm/log |
# rm -r $ORACLE_HOME/apache |
Um symbolische Verknüpfungen von den lokalen Verzeichnissen zu ihren entsprechenden globalen Verzeichnissen zu erstellen, werden folgende Befehle ausgeführt:
# ln -s /local/oracle/network/agent $ORACLE_HOME/network/agent |
# ln -s /local/oracle/network/log $ORACLE_HOME/network/log |
# ln -s /local/oracle/network/trace $ORACLE_HOME/network/trace |
# ln -s /local/oracle/srvm/log $ORACLE_HOME/srvm/log |
# ln -s /local/oracle/apache $ORACLE_HOME/apache |
Führen Sie dieses Verfahren für jede Datei aus, die knotenspezifische Informationen verwalten soll. Folgende Dateien sind im Allgemeinen für die Verwaltung knotenspezifischer Informationen erforderlich:
$ORACLE_HOME
/network/admin/snmp_ro.ora
$ORACLE_HOME
/network/admin/snmp_rw.ora
Informationen über andere Dateien, die möglicherweise zur Verwaltung knotenspezifischer Informationen erforderlich sind, finden Sie in der Oracle-Dokumentation.
Erstellen Sie auf jedem Cluster-Knoten das lokale Verzeichnis, in dem die Datei abgelegt wird, die knotenspezifische Informationen verwalten soll.
# mkdir -p lokales_Verzeichnis |
Gibt an, dass die nicht vorhandenen übergeordneten Verzeichnisse zuerst erstellt werden
Gibt den vollständigen Pfadnamen des von Ihnen erstellten Verzeichnisses an
Erstellen Sie auf jedem Cluster-Knoten eine lokale Kopie der globalen Datei, die die knotenspezifischen Informationen verwalten soll.
# cp -p globale_Datei lokales_Verzeichnis |
Gibt an, dass Besitzer, Gruppe, Berechtigungsmodi, Änderungszeitpunkt, Zugriffszeitpunkt und Zugriffskontrolllisten beibehalten werden.
Gibt den Dateinamen und den vollständigen Pfad der globalen Datei an, die Sie kopieren. Diese Datei wurde im Cluster-Dateisystem unter dem Verzeichnis installiert, das durch die Umgebungsvariable ORACLE_HOME
angegeben wird.
Legt das Verzeichnis fest, das die lokale Kopie der Datei enthalten soll. Dieses Verzeichnis haben Sie in Schritt 1 erstellt.
Ersetzen Sie die globale Datei, die Sie in Schritt 2 kopiert haben, durch eine symbolische Verknüpfung zur lokalen Kopie der Datei.
Entfernen Sie von einem beliebigen Cluster-Knoten die globale Datei, die Sie in Schritt 2 kopiert haben.
# rm globale_Datei |
Gibt den Dateinamen und den vollständigen Pfad der globalen Datei an, die Sie entfernen. Das ist die globale Datei, die Sie in Schritt 2 kopiert haben.
Erstellen Sie von einem beliebigen Cluster-Knoten eine symbolische Verknüpfung von der lokalen Kopie der Datei zum Verzeichnis, aus dem Sie die globale Datei in Schritt a entfernt haben.
# ln -s lokale_Datei globales_Verzeichnis |
Gibt an, dass es sich um eine symbolische Verknüpfung handelt
Gibt an, dass die Datei, die Sie in Schritt 2 kopiert haben, die Quelle der Verknüpfung ist
Gibt an, dass das Verzeichnis, aus dem Sie die globale Version der Datei in Schritt a entfernt haben, das Ziel der Verknüpfung ist
Dieses Beispiel zeigt den Ablauf, um knotenspezifische Dateien in einem Zwei-Knoten-Cluster zu erstellen. Dieser Cluster ist wie folgt konfiguriert:
Die Umgebungsvariable ORACLE_HOME
gibt das Verzeichnis /global/oracle an.
Das lokale Dateisystem auf jedem Knoten befindet sich unter dem Verzeichnis /local.
Folgende Vorgänge werden auf jedem Knoten ausgeführt:
Um das lokale Verzeichnis für die Dateien zu erstellen, die knotenspezifische Informationen verwalten sollen, wird folgender Befehl ausgeführt:
# mkdir -p /local/oracle/network/admin |
Um eine lokale Kopie der globalen Dateien zu erstellen, die knotenspezifische Informationen verwalten sollen, werden folgende Befehle ausgeführt:
# cp -p $ORACLE_HOME/network/admin/snmp_ro.ora \ /local/oracle/network/admin/. |
# cp -p $ORACLE_HOME/network/admin/snmp_rw.ora \ /local/oracle/network/admin/. |
Folgende Vorgänge werden nur auf einem Knoten ausgeführt:
Um die globalen Dateien zu entfernen, werden folgende Befehle ausgeführt:
# rm $ORACLE_HOME/network/admin/snmp_ro.ora |
# rm $ORACLE_HOME/network/admin/snmp_rw.ora |
Um symbolische Verknüpfungen von den lokalen Kopien der Dateien zu ihren entsprechenden globalen Dateien zu erstellen, werden folgende Befehle ausgeführt:
# ln -s /local/oracle/network/admin/snmp_ro.ora \ $ORACLE_HOME/network/admin/snmp_rw.ora |
# ln -s /local/oracle/network/admin/snmp_rw.ora \ $ORACLE_HOME/network/admin/snmp_rw.ora |
Dieser Abschnitt behandelt Fehler und Auslassungen im Sun Cluster 3.1 Data Service for Oracle E-Business Suite Guide.
Schritt 13 des Verfahrens “So registrieren Sie Sun Cluster HA für die Oracle E-Business Suite als Failover-Dienst” ist nicht korrekt. Der korrekte Text lautet wie folgt:
13. Erstellen Sie eine Ressource für Concurrent Manager Server von Oracle E-Business Suite.
# grep PROD.CON_COMNTOP /var/tmp/config.txt PROD.CON_COMNTOP=/global/mnt10/d01/oracle/prodcomn <- CON_COMNTOP # # grep PROD.DBS_ORA806= /var/tmp/config.txt PROD.DBS_ORA806=/global/mnt10/d01/oracle/prodora/8.0.6 <- ORACLE_HOME |
Das diesem Schritt folgende Beispiel ist ebenfalls falsch. Das korrekte Beispiel lautet wie folgt:
RS=ebs-cmg-res RG=ebs-rg HAS_RS=ebs-has-res LSR_RS=ebs-cmglsr-res CON_HOST=lhost1 CON_COMNTOP=/global/mnt10/d01/oracle/prodcomn CON_APPSUSER=ebs APP_SID=PROD APPS_PASSWD=apps ORACLE_HOME=/global/mnt10/d01/oracle/prodora/8.0.6 CON_LIMIT=70 MODE=32/Y
Dieser Abschnitt behandelt Fehler und Auslassungen in den Abschnitten Sun Cluster 3.1 Data Service for Sun ONE Directory Server Guide und Sun Cluster 3.1 Data Service for Sun ONE Web Server Guide.
Die Namen von iPlanet Web Server und iPlanet Directory Server wurden geändert. Die neuen Namen lauten Sun ONE Web Server und Sun ONE Directory Server. Die Datendienstnamen lauten nun Sun Cluster HA für Sun ONE Web Server und Sun Cluster HA für Sun ONE Directory Server.
Die Anwendungsnamen auf der Sun Cluster Agents-CD-ROM können noch iPlanet Web Server und iPlanet Directory Server lauten.
Dieser Abschnitt behandelt Fehler und Auslassungen im Abschnitt Sun Cluster 3.1 Data Service for SAP liveCache.
Der Abschnitt “Registering and Configuring Sun Cluster HA for SAP liveCache” sollte darauf hinweisen, dass SAP xserver nur als Scalable-Ressource konfiguriert werden kann. Wenn SAP xserver als Failover-Ressource konfiguriert wird, erfolgt kein Failover von SAP liveCache. Ignorieren Sie alle Angaben in Bezug auf die Konfiguration der Ressource SAP xserver als Failover-Ressource im Abschnitt Sun Cluster 3.1 Data Service for SAP liveCache.
Der Abschnitt “Registrieren und Konfigurieren von Sun Cluster HA für SAP liveCache” sollte noch einen zusätzlichen Schritt enthalten. Nach Schritt 10, “Enable the scalable resource group that now includes the SAP xserver resource”, müssen Sie die liveCache-Ressource registrieren, indem Sie folgenden Text eingeben.
# scrgadm -a -j livecache-resource -g liveCache-Ressourcengruppe \ -t SUNW.sap_livecache -x livecache_name=LC-NAME \ -y resource_dependencies=liveCache-Speicherressource |
Wenn Sie die liveCache-Ressource registriert haben, setzen Sie im nächsten Schritt, “Set up a resource group dependency between SAP xserver and liveCache” fort.
Dieser Abschnitt behandelt Fehler und Auslassungen im Abschnitt Sun Cluster 3.1 Data Service for WebLogic Server .
Die Tabelle “Protection of BEA WebLogic Server Component” sollte besagen, dass die Datenbank BEA WebLogic Server von allen Datenbanken geschützt wird, die von BEA WebLogic Server und in Sun Cluster unterstützt werden. Die Tabelle sollte auch besagen, dass die HTTP-Server von allen HTTP-Servern geschützt werden, die von BEA WebLogic Server und in Sun Cluster unterstützt werden.
Dieser Abschnitt behandelt Fehler und Auslassungen im Abschnitt Sun Cluster 3.1 Data Service for Apache Guide.
Der Abschnitt “Planning the Installation and Configuration” sollte einen Hinweis über die Verwendung eines Scalable-Proxy-Servers als Scalable-Webressource enthalten. Die Verwendung von Scalable-Proxy wird nicht unterstützt.
Wenn Sie die Erweiterungseigenschaft Monitor_Uri_List für den Datendienst Sun Cluster HA für Apache verwenden, beträgt der erforderliche Wert der Eigenschaft Type_version 4. Sie können eine Ressourcentyp-Aufrüstung auf Type_version 4 vornehmen.
Wenn Sie die Erweiterungseigenschaft Monitor_Uri_List für den Datendienst Sun Cluster HA für Sun ONE Web Server verwenden, beträgt der erforderliche Wert der Eigenschaft Type_version 4. Sie können eine Ressourcentyp-Aufrüstung auf Type_version 4 vornehmen.
Im Abschnitt “See Also” der Online-Dokumentation befindet sich ein Fehler. Anstatt des Verweises auf das Sun Cluster 3.1 Data Services Installation and Configuration Guide sollte auf das Sun Cluster 3.1 Data Service for WebLogic Server Guide verwiesen werden.