Sun Cluster 3.1 Data Services 10/03 Versionshinweise

Sun Cluster 3.1 Data Services 10/03 Versionshinweise

Dieses Dokument enthält folgende Informationen für die Software SunTM Cluster 3.1 Data Services 10/03.

Was ist neu bei Sun Cluster 3.1 Data Services 10/03

Dieser Abschnitt beschreibt neue Funktionen und Funktionalität. Wenden Sie sich an Ihren Sun-Kundenberater, wenn Sie eine vollständige Liste der unterstützten Hardware und Software benötigen.

Verbesserungen des Datendienstes Sun Cluster HA for Oracle

Der Server-Fehler-Monitor von Sun Cluster HA for Oracle wurde verbessert, um das Verhalten des Server-Fehler-Monitors wie folgt anpassen zu können:

Weitere Informationen finden Sie unter Sun Cluster 3.1 Data Service for Oracle Guide.

Verbesserungen des Datendienstes Sun Cluster Support für Oracle Parallel Server/Real Application Clusters

Der Datendienst Sun Cluster Support für Oracle Parallel Server/Real Application Clusters wurde verbessert, um die Verwaltung dieses Datendienstes durch Sun Cluster-Befehle zu ermöglichen.

Weitere Informationen finden Sie im Sun Cluster 3.1 Data Service for Oracle Parallel Server/Real Application Clusters Guide.

Verbesserungen der Ressourcentypen

Folgende Ressourcentypen wurden bei Sun Cluster 3.1 Data Services 10/03 verbessert:

Allgemeine Informationen über das Aufrüsten eines Ressourcentyps finden Sie unter “Upgrading a Resource Type” in Sun Cluster 3.1 Data Service Planning and Administration Guide

Neue unterstützte Datendienste

Sun Cluster 3.1 Data Services 10/03 unterstützt folgende Datendienste:

Unterstützte Produkte

Dieser Abschnitt behandelt die unterstützte Software und die Speicheranforderungen für Sun Cluster 3.1.

Security Hardening von Sun Cluster

Security Hardening von Sun Cluster verwendet die Hardening-Techniken der Solaris-Betriebsumgebung, die vom Sun BluePrints TM-Programm empfohlen werden, um grundlegende Security Hardening für Cluster zu erzielen. Solaris Security Toolkit automatisiert die Einführung von Security Hardening von Sun Cluster.

Die Security Hardening-Dokumentation von Sun Cluster ist unter http://www.sun.com/blueprints/0203/817–1079.pdf erhältlich. Sie können auf den Artikel auch über http://wwws.sun.com/software/security/blueprints zugreifen. Blättern Sie in dieser URL zur Überschrift “Architecture”. Sie finden dort den Artikel “Securing the Sun Cluster 3.x Software.”, in dem beschrieben wird, wie der Einsatz von Sun Cluster 3.1 in Solaris 8- und Solaris 9-Umgebungen sichergestellt werden kann. Die Beschreibung enthält Anleitungen zur Verwendung des Solaris Security Toolkit und andere von den Sun-Sicherheitsexperten empfohlene Security-Techniken für optimale Resultate.

Tabelle 1–2 Von Sun Cluster-Security Hardening unterstützte Datendienste

Datendienst-Agent 

Anwendungsversion: Failover 

Anwendungsversion: Scalable 

Solaris-Version 

Sun Cluster HA für Apache 

1.3.9 

1.3.9 

Solaris 8, Solaris 9 (Version 1.3.9) 

Sun Cluster HA für Apache Tomcat 

3.3, 4.0, 4.1 

3.3, 4.0, 4.1 

Solaris 8, Solaris 9 

Sun Cluster HA für DHCP 

S8U7+ 

Nicht verfügbar 

Solaris 8, Solaris 9 

Sun Cluster HA für DNS 

mit OS 

Nicht verfügbar 

Solaris 8, Solaris 9 

Sun Cluster HA für iPlanet Messaging Server 

6.0 

4.1 

Solaris 8 

Sun Cluster HA für MySQL 

3.23.54a - 4.0.15 

Nicht verfügbar 

Solaris 8, Solaris 9 

Sun Cluster HA für NetBackup 

3.4  

Nicht verfügbar 

Solaris 8 

Sun Cluster HA für NFS 

mit OS 

Nicht verfügbar 

Solaris 8, Solaris 9 

Sun Cluster HA für Oracle E-Business Suite 

11.5.8 

N/A  

Solaris 8, Solaris 9 

Sun Cluster HA für Oracle  

8.1.7 und 9i (32 und 64 Bit) 

Nicht verfügbar 

Solaris 8, Solaris 9 (HA Oracle 9iR2) 

Sun Cluster Support für Oracle Parallel Server/Real Application Clusters 

8.1.7 und 9i (32 und 64 Bit) 

Nicht verfügbar 

Solaris 8, Solaris 9 

Sun Cluster HA für SAP 

4.6D (32 und 64 Bit) und 6.20 

4.6D (32 und 64 Bit) und 6.20 

Solaris 8, Solaris 9 

Sun Cluster HA für SWIFTAlliance Access 

4.1, 5.0 

Nicht verfügbar 

Solaris 8 

Sun Cluster HA für Samba 

2.2.2, 2.2.7, 2.2.7a, 2.2.8, 2.2.8a 

Nicht verfügbar 

Solaris 8, Solaris 9 

Sun Cluster HA für Siebel  

7.5 

Nicht verfügbar 

Solaris 8 

Sun Cluster HA für Sun ONE Application Server  

7.0, 7.0 Update 1 

Nicht verfügbar 

Solaris 8,Solaris 9 

Sun Cluster HA für Sun ONE Directory Server 

4.12 

Nicht verfügbar 

Solaris 8, Solaris 9 (Version 5.1) 

Sun Cluster HA für Sun ONE Message Queue 

3.0.1 

N/A  

Solaris 8, Solaris 9 

Sun Cluster HA für Sun ONE Web Server 

6.0 

4.1 

Solaris 8, Solaris 9 (Version 4.1) 

Sun Cluster HA für Sybase ASE  

12.0 (32 Bit) 

Nicht verfügbar 

Solaris 8 

Sun Cluster HA für BEA WebLogic Server 

7.0 

Nicht verfügbar 

Solaris 8, Solaris 9 

Sun Cluster HA für WebSphere MQ 

5.2, 5.3 

Nicht verfügbar 

Solaris 8, Solaris 9 

Sun Cluster HA für WebSphere MQ Integrator 

2.0.2, 2.1 

Nicht verfügbar 

Solaris 8, Solaris 9 

Einschränkungen

Ausführen von Sun Cluster HA für Oracle 3.0 unter Sun Cluster 3.1

Der Datendienst Sun Cluster HA für Oracle 3.0 kann unter Sun Cluster 3.1 nur dann ausgeführt werden, wenn er unter folgenden Versionen der Solaris-Betriebsumgebung verwendet wird:


Hinweis –

Der Datendienst Sun Cluster HA für Oracle 3.0 kann nicht unter Sun Cluster 3.1 ausgeführt werden, wenn die 64-Bit-Version von Solaris 9 verwendet wird.


Sun Cluster HA für Oracle Parallel Server/Real Application Cluster

Beachten Sie die Dokumentation zur Option Oracle Parallel Fail Safe/Real Application Clusters Guard von Oracle Parallel Server/Real Application Cluster, da Sie die Hostnamen nach der Installation der Sun Cluster-Software nicht mehr ändern können.

Weitere Informationen über die Beschränkungen bei Hostnamen und Knotennamen finden Sie in der Dokumentation von Oracle Parallel Fail Safe/Real Application Clusters Guard.

Sun Cluster HA für NetBackup

Sun Cluster HA für NFS

Sun Cluster HA für SAP liveCache

Verwenden Sie nicht NIS für Benennungsdienste in einem Cluster, auf dem Sun Cluster HA für SAP liveCache läuft, da der NIS-Eintrag nur verwendet wird, wenn Dateien nicht verfügbar sind.

Weitere Verfahrensinformationen über die mit dieser Beschränkung zusammenhängenden Passwortanforderungen von nssswitch.conf finden Sie im Abschnitt “Preparing the Nodes and Disks” in Sun Cluster 3.1 Data Service for SAP liveCache Guide .

Installationsprobleme und Programmierfehler

Installationsrichtlinien

Bevor Sie mit der Solaris- und Sun Cluster-Installation beginnen, ermitteln Sie die Anforderungen für alle Datendienste. Wenn Sie diese Anforderungen nicht definieren, könnte der Installationsprozess nicht korrekt ausgeführt werden und möglicherweise müsste die Installation der Solaris- und Sun Cluster-Software vollkommen neu erfolgen.

Die Option Oracle Parallel Fail Safe/Real Application Clusters Guard von Oracle Parallel Server/Real Application Clusters hat z. B. besondere Anforderungen an die Hostnamen/Knotennamen, die Sie im Cluster verwenden. Sie müssen diesen Anforderungen nachkommen, bevor Sie die Sun Cluster-Software installieren, da Sie die Hostnamen nach der Installation der Sun Cluster-Software nicht mehr ändern können. Weitere Informationen über die Spezialanforderungen an die Hostnamen/Knotennamen finden Sie in der Dokumentation von Oracle Parallel Fail Safe/Real Application Clusters Guard.

Sun Cluster HA für liveCache – Die nsswitch.conf-Anforderungen an passwd bewirken, dass NIS nicht verwendet werden kann (4904975)

NIS kann in einem Cluster, in dem liveCache läuft, nicht verwendet werden, da der NIS-Eintrag nur verwendet wird, wenn Dateien nicht verfügbar sind. Weitere Informationen finden Sie im Abschnitt Sun Cluster HA für SAP liveCache.

Verwaltungslaufzeit-Probleme und Programmierfehler

HA Oracle-Instanzen starten nicht, wenn das SCI-Interconnect deaktiviert ist (4823212)

Oracle-Instanzen starten nicht, wenn ein SCI-Cluster-Interconnect auf einem Cluster-Knoten mithilfe des Befehls scconf -c -A deaktiviert wird.

HA Oracle-Stoppmethoden-Zeitüberschreitung (4644289)

Wenn Sie mit Solaris 9 arbeiten, fügen Sie folgende Einträge in die Konfigurationsdateien /etc/nsswitch.conf auf jedem Knoten ein, der Primärknoten für die Ressource oracle_server oder oracle_listener sein kann, damit der Datendienst bei einem Netzwerkfehler korrekt startet und stoppt:

passwd: files
groups:  files
publickey:  files
project:  files

Der Datendienst Sun Cluster HA für Oracle verwendet den Superbenutzer-Befehl su(1M), um die Datenbank zu starten und zu stoppen. Es kann sein, dass der Netzwerkdienst nicht verfügbar ist, wenn das öffentliche Netzwerk eines Cluster-Knotens ausfällt. Durch Hinzufügen der obigen Einträge stellen Sie sicher, dass der vsu-Befehl nicht auf die NIS/NIS+-Namensdienste verweist.

SAP liveCache-Stoppmethoden-Zeitüberschreitung (4836272)

Wenn Sie mit Solaris 9 arbeiten, fügen Sie einen der folgenden Einträge für die publickey-Datenbank in die Konfigurationsdateien /etc/nsswitch.conf auf jedem Knoten ein, der Primärknoten für dieliveCache-Ressourcen sein kann, damit der Datendienst bei einem Netzwerkfehler korrekt startet und stoppt:

publickey: 
publickey:  files
publickey:  files [NOTFOUND=return] nis 
publickey:  files [NOTFOUND=return] nisplus

Der Datendienst Sun Cluster HA für SAP liveCache verwendet den dbmcli-Befehl, um liveCache zu starten und zu stoppen. Es kann sein, dass der Netzwerkdienst nicht verfügbar ist, wenn das öffentliche Netzwerk eines Cluster-Knotens ausfällt. Das Hinzufügen eines der obigen Einträge und die unter Sun Cluster 3.1 Data Service for SAP liveCache Guide beschriebenen Updates stellen sicher, dass sich die Befehle su und dbmcli nicht auf die Namensdienste NIS/NIS+ beziehen.

HA Oracle Listener-Test-Zeitüberschreitungen (4900140)

In einem System mit starker Belastung kann beim Oracle-Listener-Test die Zeit überschritten werden. Um zu verhindern, dass beim Oracle-Listener-Test die Zeit überschritten wird, erhöhen Sie den Wert der Erweiterungseigenschaft Thorough_probe_interval. Der Zeitüberschreitungs-Wert des Oracle-Listener-Tests hängt vom Wert der Erweiterungseigenschaft Thorough_probe_interval ab. Sie können den Zeitüberschreitungs-Wert des Oracle-Listener-Tests nicht unabhängig einstellen.

HA-Siebel startet ausgefallene Siebel-Komponenten nicht automatisch neu (4722288)

Der Sun Cluster HA-Siebel-Agent überwacht die einzelnen Siebel-Komponenten nicht. Wenn der Ausfall einer Siebel-Komponente festgestellt wird, wird nur eine Warnmeldung in syslog protokolliert.

Um dieses Problem zu umgehen, starten Sie die Siebel-Server-Ressourcengruppe, in der sich Komponenten offline befinden, mithilfe des Befehls scswitch -R -h Knoten -g Ressourcengruppe erneut.

xserver_svc_start meldet, dass xserver beim Start nicht verfügbar ist (4738554)

Die Meldung “SAP xserver is not available” wird beim Start von SAP xserver ausgegeben, da xserver erst als verfügbar erachtet wird, wenn er voll hochgefahren ist und läuft.

Ignorieren Sie diese Meldung beim Start von SAP xserver.

xserver-Ressource kann nicht als Failover-Ressource konfiguriert werden (4836248)

Konfigurieren Sie die xserver-Ressource nicht als Failover-Ressource. Das Failover des Datendienstes Sun Cluster HA für SAP liveCache erfolgt nicht korrekt, wenn xserver als Failover-Ressource konfiguriert ist.

Um Monitor_Uri_List zu verwenden, muss Type_version auf 4 eingestellt werden (4924147)

Um die Erweiterungseigenschaft Monitor_Uri_List von Sun Cluster HA for Apache und Sun Cluster HA for Sun ONE Web Server zu verwenden, müssen Sie die Eigenschaft Type_version auf 4 einstellen.

Sie können die Eigenschaft Type_version einer Ressource auch jederzeit auf 4 aufrüsten. Informationen über das Aufrüsten eines Ressourcentyps finden Sie im Abschnitt “Upgrading a Resource Type” in Sun Cluster 3.1 Data Service Planning and Administration Guide.

Der su-Befehl setzt die Projekt-ID zurück (4868654)

Manche Datendienste führen den su-Befehl aus, um die Benutzer-ID auf einen bestimmten Benutzer einzustellen. In der Solaris 9-Betriebsumgebung setzt der su-Befehl die Projekt-ID auf default zurück. Dadurch wird die von der Systemeigenschaft RG_project_name oder Resource_project_name vorgenommene Einstellung der Projekt-ID übergangen.

Um sicherzustellen, dass stets er korrekte Projektname verwendet wird, stellen Sie den Projektnamen in der Umgebungsdatei des Benutzers ein. Eine Methode zum Einstellen des Projektnamens in der Umgebungsdatei des Benutzers ist, der .cshrc-Datei des Benutzers folgende Zeile hinzuzufügen:

/usr/bin/newtask -p Projektname -c $$

Projektname ist der Projektname, der verwendet werden soll.

Korrekturversionen und erforderliche Firmware-Ebenen

Dieser Abschnitt enthält Informationen über Korrekturversionen für die Sun Cluster-Konfiguration.


Hinweis –

Sie müssen ein registrierter SunSolveTM-Benutzer sein, um die erforderlichen Korrekturversionen für das Sun Cluster-Produkt herunterladen zu können. Wenn Sie nicht über ein SunSolve-Konto verfügen, wenden Sie sich an Ihren Sun-Kundenberater oder Fachberater bzw. registrieren Sie sich online unter http://sunsolve.sun.com.


PatchPro

PatchPro ist ein Korrekturversionen-Verwaltungstool, das die Auswahl und das Herunterladen von Korrekturversionen erleichtert, die für die Installation bzw. Wartung der Sun Cluster-Software erforderlich sind. PatchPro stellt ein Sun Cluster-spezifisches Tool im “Interactive Mode” bereit, das die Installation der Korrekturversionen vereinfacht, sowie ein Tool im “Expert Mode”, das Ihnen dabei hilft, Ihre Konfiguration mit den neuesten Korrekturversionen zu warten. “Expert Mode” ist besonders nützlich, wenn Sie alle aktuellen Korrekturversionen möchten, und nicht nur jene für hohe Verfügbarkeit und Sicherheit.

Um auf das PatchPro-Tool für die Sun Cluster-Software zuzugreifen, gehen Sie zu http://www.sun.com/PatchPro/, klicken auf Sun Cluster und wählen dann “Interactive Mode” oder “Expert Mode”. Folgen Sie den Anweisungen im PatchPro-Tool, um Ihre Cluster-Konfiguration zu beschreiben und die Korrekturversionen herunterzuladen.

SunSolve Online

Die SunSolveTM-Online-Website bietet rund um die Uhr Zugriff auf die neuesten Informationen über Korrekturversionen, Software und Firmware für Sun-Produkte. Auf der Site SunSolve Online unter http://sunsolve.sun.com haben Sie Zugriff auf die aktuellsten Matrizes der unterstützten Software-, Firmware- und Programmkorrekturversionen.

Informationen über Korrekturversionen von Sun Cluster 3.1 finden Sie mithilfe der “Info Docs”. Zum Anzeigen der “Info Docs” melden Sie sich bei SunSolve an und wählen auf der Hauptseite oben die Option “Simple Search”. Klicken Sie auf der Seite “Simple Search” auf “Info Docs” und geben Sie Sun Cluster 3.1 in das Suchkriterienfeld ein. Dadurch wird die Seite “Info Docs” für Sun Cluster 3.1 aufgerufen.

Vor der Installation der Sun Cluster 3.1-Software und dem Installieren einer Korrekturversion für eine Cluster-Komponente (Solaris-Betriebsumgebung, Sun Cluster-Software, Datenträger-Manager oder Datendienst-Software oder Platten-Hardware) die Info Docs und alle den Korrekturversionen hinzugefügten README-Dateien. Alle Cluster-Knoten müssen auf dem gleichen Korrekturversionsstand sein, damit der Cluster-Betrieb einwandfrei verläuft.

Spezifische Korrekturversionsverfahren und Tipps zur Korrekturversionenverwaltung finden Sie in “ Patching Sun Cluster Software and Firmware” in Sun Cluster 3.1 10/03 System Administration Guide.

Informationen zur Beendigung von Funktionsunterstützung

HAStorage

HAStorage wird in einer zukünftigen Version der Sun Cluster-Software möglicherweise nicht mehr unterstützt. Praktisch gleichwertige Funktionalität wird von HAStoragePlus unterstützt. Informationen über die Aufrüstung von HAStorage auf HAStoragePlus bei Verwendung von Cluster-Dateisystemen oder Gerätegruppen finden Sie im Abschnitt “ Upgrading from HAStorage to HAStoragePlus” in Sun Cluster 3.1 Data Service Planning and Administration Guide.

Sun Cluster 3.1 Data Services 10/03 Software-Lokalisierung

Folgende Lokalisierungspakete stehen auf der Datendienste-CD-ROM zur Verfügung. Wenn Sie Sun Cluster 3.1 installieren oder auf diese Version aufrüsten, werden die Lokalisierungspakete für die von Ihnen ausgewählten Datendienste automatisch installiert.

Sprache 

Paketbezeichnung 

Paketbeschreibung 

Französisch 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

SUNWfscapc

Sun Cluster Apache Web Server Component Französisch 

SUNWfscbv

Sun Cluster BV Server Component Französisch 

SUNWfscdns

Sun Cluster Domain Name Server Component Französisch 

SUNWfschtt

Sun Cluster Sun ONE Web Server Component Französisch 

SUNWfsclc

Sun Cluster-Ressourcentyp für SAP liveCache Französisch 

SUNWfscnb

Sun Cluster-Ressourcentyp für netbackup_master server Französisch 

SUNWfscnfs

Sun Cluster NFS Server Component Französisch 

SUNWfscnsl

Sun Cluster Sun ONE Directory Server Component Französisch 

SUNWfscor

Sun Cluster HA Oracle-Datendienst Französisch 

SUNWfscs1as

Sun Cluster HA Sun ONE Application Server-Datendienst Französisch 

SUNWfscs1mq

Sun Cluster HA Sun ONE Message Queue-Datendienst Französisch 

SUNWfscsap

Sun Cluster SAP R/3 Component Französisch 

SUNWfscsbl

Sun Cluster-Ressourcentypen für Siebel-Gateway und Siebel-Server Französisch 

SUNWfscsyb

Sun Cluster HA Sybase-Datendienst Französisch 

SUNWfscwls

Sun Cluster BEA WebLogic Server Component Französisch 

Japanisch 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

SUNWjscapc

Sun Cluster Apache Web Server Component Japanisch 

SUNWjscbv

Sun Cluster BV Server Component Japanisch 

SUNWjscdns

Sun Cluster Domain Name Server Component Japanisch 

SUNWjschtt

Sun Cluster Sun ONE Web Server Component Japanisch 

SUNWjsclc

Sun Cluster-Ressourcentyp für SAP liveCache Japanisch 

SUNWjscnb

Sun Cluster-Ressourcentyp für netbackup_master server Japanisch 

SUNWjscnfs

Sun Cluster NFS Server Component Japanisch 

SUNWjscnsl

Sun Cluster Sun ONE Directory Server Component Japanisch 

SUNWjscor

Sun Cluster HA Oracle-Datendienst Japanisch 

SUNWjscs1as

Sun Cluster HA Sun ONE Application Server-Datendienst Japanisch 

SUNWjscs1mq

Sun Cluster HA Sun ONE Message Queue-Datendienst Japanisch 

SUNWjscsap

Sun Cluster SAP R/3 Component Japanisch 

SUNWjscsbl

Sun Cluster-Ressourcentypen für Siebel-Gateway und Siebel-Server Japanisch 

SUNWjscsyb

Sun Cluster HA Sybase-Datendienst Japanisch 

SUNWjscwls

Sun Cluster BEA WebLogic Server Component Japanisch 

Sun Cluster 3.1 Data Services 10/03 Dokumentation

Die vollständige Benutzerdokumentation von Sun Cluster 3.1 Data Services 10/03 steht im PDF- und HTML-Format auf der Sun Cluster Agents-CD-ROM zur Verfügung. Die AnswerBook2TM-Server-Software ist nicht erforderlich, um die Sun Cluster 3.1-Dokumentation zu lesen. Weitere Informationen finden Sie in der obersten Ebene der jeweiligen CD-ROM in der Datei index.html. Die Datei index.html ermöglicht Ihnen, die PDF- und HTML-Handbücher direkt von der CD-ROM zu lesen und auf die Anweisungen für die Installation der Dokumentationspakete zuzugreifen.


Hinweis –

Das SUNWsdocs-Paket muss installiert werden, bevor Sie ein Sun Cluster-Dokumentationspaket installieren. Sie können den Befehl pkgadd verwenden, um das Paket SUNWsdocs vom Verzeichnis SunCluster_3.1/Sol_N/Packages/ der Sun Cluster-CD-ROM oder vom Verzeichnis components/SunCluster_Docs_3.1/Sol_ N/Packages/ der Sun Cluster Agents-CD-ROM zu installieren, wobei N für 8 bei Solaris 8 oder 9 bei Solaris 9 steht. Das Paket SUNWsdocs wird ebenfalls automatisch installiert, wenn Sie das Installationsprogramm von der Solaris 9-Dokumentations-CD ausführen.


Der Sun Cluster 3.1-Dokumentationssatz besteht aus folgenden Dokumentationsreihen:

Daneben können Sie über die Website docs.sun.comSM auf Sun Cluster-Dokumentation im Internet zugreifen. Dort können Sie das docs.sun.com-Archiv durchsuchen oder auf folgender Website nach einem spezifischen Buchtitel oder Thema suchen:

http://docs.sun.com

Dokumentationsprobleme

Dieser Abschnitt führt bekannte Fehler oder Auslassungen in der Dokumentation, Onlinehilfe bzw. der Online-Dokumentation auf und beschreibt die Schritte zum Beheben dieser Probleme.

Sun Cluster 3.1 Data Service for Oracle Parallel Server/Real Application Clusters Guide

Dieser Abschnitt behandelt Fehler und Auslassungen im Sun Cluster 3.1 Data Service for Oracle Parallel Server/Real Application Clusters Guide.

Anforderungen für die Verwendung des Cluster-Dateisystems

Der Abschnitt “Anforderungen für die Verwendung des Cluster-Dateisystems” enthält die falsche Angabe, dass Sie Datendateien im Cluster-Dateisystem speichern können. Sie dürfen keine Datendateien im Cluster-Dateisystem speichern. Ignorieren Sie deshalb in diesem Abschnitt alle Angaben zu Datendateien.

Erstellen von knotenspezifischen Dateien und Verzeichnissen zur Verwendung mit der Software Oracle Parallel Server/Real Application Clusters im Cluster-Dateisystem

Wenn die Oracle-Software im Cluster-Dateisystem installiert wird, kann von allen Cluster-Knoten auf alle Dateien in dem Verzeichnis zugegriffen werden, das von der Umgebungsvariable ORACLE_HOME angegeben wird.

Bei manchen Installationen kann es erforderlich sein, dass Oracle-Dateien oder -Verzeichnisse knotenspezifische Informationen verwalten. Sie können diese Anforderung erfüllen, indem Sie eine symbolische Verknüpfung verwenden, deren Ziel eine Datei oder ein Verzeichnis ist, die bzw. das für einen Knoten lokal ist. Ein derartiges Dateisystem gehört nicht zum Cluster-Dateisystems.

Um eine symbolische Verknüpfung für diesen Zweck zu verwenden, müssen Sie einen Bereich in einem lokalen Dateisystem zuordnen. Damit die Oracle-Anwendungen symbolische Verknüpfungen zu den Dateien in diesem Bereich herstellen können, müssen die Anwendungen auf die Dateien in diesem Bereich zugreifen können. Da sich die symbolische Verknüpfung im Cluster-Dateisystem befindet, sind die Verweise zu den Verknüpfungen von allen Knoten aus gleich. Deshalb müssen alle Knoten denselben Namensraum für den Bereich im lokalen Dateisystem aufweisen.

So erstellen Sie ein knotenspezifisches Verzeichnis zur Verwendung mit der Software Oracle Parallel Server/Real Application Clusters im Cluster-Dateisystem

Führen Sie dieses Verfahren für jedes Verzeichnis aus, das knotenspezifische Informationen verwalten soll. Folgende Verzeichnisse sind im Allgemeinen zur Verwaltung knotenspezifischer Informationen erforderlich:

Informationen über andere Verzeichnisse, die möglicherweise zur Verwaltung knotenspezifischer Informationen erforderlich sind, finden Sie in der Oracle-Dokumentation.

  1. Erstellen Sie auf jedem Cluster-Knoten das lokale Verzeichnis, das die knotenspezifischen Informationen verwalten soll.


    # mkdir -p lokales_Verzeichnis
    
    -p

    Gibt an, dass die nicht vorhandenen übergeordneten Verzeichnisse zuerst erstellt werden

    lokales_Verzeichnis

    Gibt den vollständigen Pfadnamen des von Ihnen erstellten Verzeichnisses an

  2. Erstellen Sie auf jedem Cluster-Knoten eine lokale Kopie des globalen Verzeichnisses, das die knotenspezifischen Informationen verwalten soll.


    # cp -pr globales_Verzeichnis übergeordnetes_lokales_Verzeichnis
    
    -p

    Gibt an, dass Besitzer, Gruppe, Berechtigungsmodi, Änderungszeitpunkt, Zugriffszeitpunkt und Zugriffskontrolllisten beibehalten werden.

    -W

    Gibt an, dass das Verzeichnis und alle enthaltenen Dateien einschließlich aller Unterverzeichnisse und deren Dateien kopiert werden.

    globales_Verzeichnis

    Gibt den vollständigen Pfad des von Ihnen kopierten globalen Verzeichnisses an. Dieses Verzeichnis befindet sich im Cluster-Dateisystem unter dem Verzeichnis, das durch die Umgebungsvariable ORACLE_HOME angegeben wird.

    übergeordnetes_lokales_Verzeichnis

    Gibt das Verzeichnis auf dem lokalen Knoten an, das die lokale Kopie enthalten soll. Dieses Verzeichnis ist das übergeordnete Verzeichnis des Verzeichnisses, das Sie in Schritt 1 erstellt haben.

  3. Ersetzen Sie das globale Verzeichnis, das Sie in Schritt 2 kopiert haben, durch eine symbolische Verknüpfung zur lokalen Kopie des globalen Verzeichnisses.

    1. Entfernen Sie von einem beliebigen Cluster-Knoten das globale Verzeichnis, das Sie in Schritt 2 kopiert haben.


      # rm -r globales_Verzeichnis
      
      -W

      Gibt an, dass das Verzeichnis und alle enthaltenen Dateien einschließlich aller Unterverzeichnisse und deren Dateien entfernt werden.

      globales_Verzeichnis

      Gibt den Dateinamen und den vollständigen Pfad des globalen Verzeichnisses an, das Sie entfernen. Dieses Verzeichnis ist das globale Verzeichnis, das Sie in Schritt 2 kopiert haben.

    2. Erstellen Sie von einem beliebigen Cluster-Knoten eine symbolische Verknüpfung von der lokalen Kopie des Verzeichnisses zum globalen Verzeichnis, das Sie in Schritt a entfernt haben.


      # ln -s lokales_Verzeichnis globales_Verzeichnis
      
      -s

      Gibt an, dass es sich um eine symbolische Verknüpfung handelt

      lokales_Verzeichnis

      Gibt an, dass das lokale Verzeichnis, das Sie in Schritt 1 erstellt haben, die Quelle der Verknüpfung ist

      globales_Verzeichnis

      Gibt an, dass das globale Verzeichnis, das Sie in Schritt a entfernt haben, das Ziel der Verknüpfung ist


Beispiel 1–1 Erstellen von knotenspezifischen Verzeichnissen

Dieses Beispiel zeigt den Ablauf, um knotenspezifische Verzeichnisse in einem Zwei-Knoten-Cluster zu erstellen. Dieser Cluster ist wie folgt konfiguriert:

Folgende Vorgänge werden auf jedem Knoten ausgeführt:

  1. Um die erforderlichen Verzeichnisse im lokalen Dateisystem zu erstellen, werden folgende Befehle ausgeführt:


    # mkdir -p /local/oracle/network/agent

    # mkdir -p /local/oracle/network/log

    # mkdir -p /local/oracle/network/trace

    # mkdir -p /local/oracle/srvm/log

    # mkdir -p /local/oracle/apache
  2. Um lokale Kopien der globalen Verzeichnisse zu erstellen, die knotenspezifische Informationen verwalten sollen, werden folgende Befehle ausgeführt:


    # cp -pr $ORACLE_HOME/network/agent /local/oracle/network/.

    # cp -pr $ORACLE_HOME/network/log /local/oracle/network/.

    # cp -pr $ORACLE_HOME/network/trace /local/oracle/network/.

    # cp -pr $ORACLE_HOME/srvm/log /local/oracle/srvm/.

    # cp -pr $ORACLE_HOME/apache /local/oracle/.

Folgende Vorgänge werden nur auf einem Knoten ausgeführt:

  1. Um die globalen Verzeichnisse zu entfernen, werden folgende Befehle ausgeführt:


    # rm -r $ORACLE_HOME/network/agent

    # rm -r $ORACLE_HOME/network/log

    # rm -r $ORACLE_HOME/network/trace

    # rm -r $ORACLE_HOME/srvm/log

    # rm -r $ORACLE_HOME/apache
  2. Um symbolische Verknüpfungen von den lokalen Verzeichnissen zu ihren entsprechenden globalen Verzeichnissen zu erstellen, werden folgende Befehle ausgeführt:


    # ln -s /local/oracle/network/agent $ORACLE_HOME/network/agent 

    # ln -s /local/oracle/network/log $ORACLE_HOME/network/log

    # ln -s /local/oracle/network/trace $ORACLE_HOME/network/trace

    # ln -s /local/oracle/srvm/log $ORACLE_HOME/srvm/log

    # ln -s /local/oracle/apache $ORACLE_HOME/apache

So erstellen Sie eine knotenspezifische Datei zur Verwendung mit der Software Oracle Parallel Server/Real Application Clusters im Cluster-Dateisystem

Führen Sie dieses Verfahren für jede Datei aus, die knotenspezifische Informationen verwalten soll. Folgende Dateien sind im Allgemeinen für die Verwaltung knotenspezifischer Informationen erforderlich:

Informationen über andere Dateien, die möglicherweise zur Verwaltung knotenspezifischer Informationen erforderlich sind, finden Sie in der Oracle-Dokumentation.

  1. Erstellen Sie auf jedem Cluster-Knoten das lokale Verzeichnis, in dem die Datei abgelegt wird, die knotenspezifische Informationen verwalten soll.


    # mkdir -p lokales_Verzeichnis
    
    -p

    Gibt an, dass die nicht vorhandenen übergeordneten Verzeichnisse zuerst erstellt werden

    lokales_Verzeichnis

    Gibt den vollständigen Pfadnamen des von Ihnen erstellten Verzeichnisses an

  2. Erstellen Sie auf jedem Cluster-Knoten eine lokale Kopie der globalen Datei, die die knotenspezifischen Informationen verwalten soll.


    # cp -p globale_Datei lokales_Verzeichnis
    
    -p

    Gibt an, dass Besitzer, Gruppe, Berechtigungsmodi, Änderungszeitpunkt, Zugriffszeitpunkt und Zugriffskontrolllisten beibehalten werden.

    globale_Datei

    Gibt den Dateinamen und den vollständigen Pfad der globalen Datei an, die Sie kopieren. Diese Datei wurde im Cluster-Dateisystem unter dem Verzeichnis installiert, das durch die Umgebungsvariable ORACLE_HOME angegeben wird.

    lokales_Verzeichnis

    Legt das Verzeichnis fest, das die lokale Kopie der Datei enthalten soll. Dieses Verzeichnis haben Sie in Schritt 1 erstellt.

  3. Ersetzen Sie die globale Datei, die Sie in Schritt 2 kopiert haben, durch eine symbolische Verknüpfung zur lokalen Kopie der Datei.

    1. Entfernen Sie von einem beliebigen Cluster-Knoten die globale Datei, die Sie in Schritt 2 kopiert haben.


      # rm globale_Datei
      
      globale_Datei

      Gibt den Dateinamen und den vollständigen Pfad der globalen Datei an, die Sie entfernen. Das ist die globale Datei, die Sie in Schritt 2 kopiert haben.

    2. Erstellen Sie von einem beliebigen Cluster-Knoten eine symbolische Verknüpfung von der lokalen Kopie der Datei zum Verzeichnis, aus dem Sie die globale Datei in Schritt a entfernt haben.


      # ln -s lokale_Datei globales_Verzeichnis
      
      -s

      Gibt an, dass es sich um eine symbolische Verknüpfung handelt

      lokale_Datei

      Gibt an, dass die Datei, die Sie in Schritt 2 kopiert haben, die Quelle der Verknüpfung ist

      globales_Verzeichnis

      Gibt an, dass das Verzeichnis, aus dem Sie die globale Version der Datei in Schritt a entfernt haben, das Ziel der Verknüpfung ist


Beispiel 1–2 Erstellen von knotenspezifischen Dateien

Dieses Beispiel zeigt den Ablauf, um knotenspezifische Dateien in einem Zwei-Knoten-Cluster zu erstellen. Dieser Cluster ist wie folgt konfiguriert:

Folgende Vorgänge werden auf jedem Knoten ausgeführt:

  1. Um das lokale Verzeichnis für die Dateien zu erstellen, die knotenspezifische Informationen verwalten sollen, wird folgender Befehl ausgeführt:


    # mkdir -p /local/oracle/network/admin
  2. Um eine lokale Kopie der globalen Dateien zu erstellen, die knotenspezifische Informationen verwalten sollen, werden folgende Befehle ausgeführt:


    # cp -p $ORACLE_HOME/network/admin/snmp_ro.ora \
      /local/oracle/network/admin/.

    # cp -p $ORACLE_HOME/network/admin/snmp_rw.ora \
      /local/oracle/network/admin/.

Folgende Vorgänge werden nur auf einem Knoten ausgeführt:

  1. Um die globalen Dateien zu entfernen, werden folgende Befehle ausgeführt:


    # rm $ORACLE_HOME/network/admin/snmp_ro.ora

    # rm $ORACLE_HOME/network/admin/snmp_rw.ora
  2. Um symbolische Verknüpfungen von den lokalen Kopien der Dateien zu ihren entsprechenden globalen Dateien zu erstellen, werden folgende Befehle ausgeführt:


    # ln -s /local/oracle/network/admin/snmp_ro.ora \
      $ORACLE_HOME/network/admin/snmp_rw.ora

    # ln -s /local/oracle/network/admin/snmp_rw.ora \
      $ORACLE_HOME/network/admin/snmp_rw.ora

Sun Cluster 3.1 Data Service for Oracle E-Business Suite Guide

Dieser Abschnitt behandelt Fehler und Auslassungen im Sun Cluster 3.1 Data Service for Oracle E-Business Suite Guide.

So registrieren und konfigurieren Sie Sun Cluster HA für die Oracle E-Business Suite als Failover-Dienst

Schritt 13 des Verfahrens “So registrieren Sie Sun Cluster HA für die Oracle E-Business Suite als Failover-Dienst” ist nicht korrekt. Der korrekte Text lautet wie folgt:

Das diesem Schritt folgende Beispiel ist ebenfalls falsch. Das korrekte Beispiel lautet wie folgt:

RS=ebs-cmg-res
RG=ebs-rg
HAS_RS=ebs-has-res
LSR_RS=ebs-cmglsr-res
CON_HOST=lhost1
CON_COMNTOP=/global/mnt10/d01/oracle/prodcomn
CON_APPSUSER=ebs
APP_SID=PROD
APPS_PASSWD=apps
ORACLE_HOME=/global/mnt10/d01/oracle/prodora/8.0.6
CON_LIMIT=70
MODE=32/Y

Sun Cluster 3.1 Data Service 10/03 für Sun ONE Directory Server und Sun ONE Web Server

Dieser Abschnitt behandelt Fehler und Auslassungen in den Abschnitten Sun Cluster 3.1 Data Service for Sun ONE Directory Server Guide und Sun Cluster 3.1 Data Service for Sun ONE Web Server Guide.

Namensänderung bei iPlanet Web Server und iPlanet Directory Server

Die Namen von iPlanet Web Server und iPlanet Directory Server wurden geändert. Die neuen Namen lauten Sun ONE Web Server und Sun ONE Directory Server. Die Datendienstnamen lauten nun Sun Cluster HA für Sun ONE Web Server und Sun Cluster HA für Sun ONE Directory Server.

Die Anwendungsnamen auf der Sun Cluster Agents-CD-ROM können noch iPlanet Web Server und iPlanet Directory Server lauten.

Sun Cluster 3.1 Data Service 10/03 für SAP liveCache

Dieser Abschnitt behandelt Fehler und Auslassungen im Abschnitt Sun Cluster 3.1 Data Service for SAP liveCache.

Der Abschnitt “Registering and Configuring Sun Cluster HA for SAP liveCache” sollte darauf hinweisen, dass SAP xserver nur als Scalable-Ressource konfiguriert werden kann. Wenn SAP xserver als Failover-Ressource konfiguriert wird, erfolgt kein Failover von SAP liveCache. Ignorieren Sie alle Angaben in Bezug auf die Konfiguration der Ressource SAP xserver als Failover-Ressource im Abschnitt Sun Cluster 3.1 Data Service for SAP liveCache.

Der Abschnitt “Registrieren und Konfigurieren von Sun Cluster HA für SAP liveCache” sollte noch einen zusätzlichen Schritt enthalten. Nach Schritt 10, “Enable the scalable resource group that now includes the SAP xserver resource”, müssen Sie die liveCache-Ressource registrieren, indem Sie folgenden Text eingeben.


# scrgadm -a -j livecache-resource -g liveCache-Ressourcengruppe \
-t SUNW.sap_livecache -x livecache_name=LC-NAME \
-y resource_dependencies=liveCache-Speicherressource

Wenn Sie die liveCache-Ressource registriert haben, setzen Sie im nächsten Schritt, “Set up a resource group dependency between SAP xserver and liveCache” fort.

Sun Cluster 3.1 Data Service 10/03 für WebLogic Server

Dieser Abschnitt behandelt Fehler und Auslassungen im Abschnitt Sun Cluster 3.1 Data Service for WebLogic Server .

Die Tabelle “Protection of BEA WebLogic Server Component” sollte besagen, dass die Datenbank BEA WebLogic Server von allen Datenbanken geschützt wird, die von BEA WebLogic Server und in Sun Cluster unterstützt werden. Die Tabelle sollte auch besagen, dass die HTTP-Server von allen HTTP-Servern geschützt werden, die von BEA WebLogic Server und in Sun Cluster unterstützt werden.

Sun Cluster 3.1 Data Service 10/03 für Apache

Dieser Abschnitt behandelt Fehler und Auslassungen im Abschnitt Sun Cluster 3.1 Data Service for Apache Guide.

Der Abschnitt “Planning the Installation and Configuration” sollte einen Hinweis über die Verwendung eines Scalable-Proxy-Servers als Scalable-Webressource enthalten. Die Verwendung von Scalable-Proxy wird nicht unterstützt.

Wenn Sie die Erweiterungseigenschaft Monitor_Uri_List für den Datendienst Sun Cluster HA für Apache verwenden, beträgt der erforderliche Wert der Eigenschaft Type_version 4. Sie können eine Ressourcentyp-Aufrüstung auf Type_version 4 vornehmen.

Sun Cluster 3.1 Data Service 10/03 für Sun ONE Web Server

Wenn Sie die Erweiterungseigenschaft Monitor_Uri_List für den Datendienst Sun Cluster HA für Sun ONE Web Server verwenden, beträgt der erforderliche Wert der Eigenschaft Type_version 4. Sie können eine Ressourcentyp-Aufrüstung auf Type_version 4 vornehmen.

Online-Dokumentation

SUNW.wls(5)

Im Abschnitt “See Also” der Online-Dokumentation befindet sich ein Fehler. Anstatt des Verweises auf das Sun Cluster 3.1 Data Services Installation and Configuration Guide sollte auf das Sun Cluster 3.1 Data Service for WebLogic Server Guide verwiesen werden.