Sun Cluster 3.2 - Versionshinweise für Solaris OS

Sun Cluster 3.2 - Versionshinweise für Solaris OS

Dieses Dokument enthält folgende Informationen zur Software SunTM Cluster 3.2.

Was ist neu bei Sun Cluster 3.2

Dieser Abschnitt enthält Informationen über neue Funktionen, Funktionalität und unterstützte Produkte der Sun Cluster-Software. Es werden außerdem alle für diese Version neu geltenden Einschränkungen beschrieben.

Neue Funktionen und Funktionalität

In diesem Abschnitt werden die folgenden neuen Funktionen der Sun Cluster 3.2-Software einzeln beschrieben.

Neuer objektorientierter Sun Cluster-Befehlssatz

Die neue Sun Cluster-Befehlszeilenschnittstelle stellt für jeden Cluster-Objekttyp einen eigenen Befehl bereit und verwendet konsistente Namen für Unterbefehle sowie konsistente Buchstaben für Optionen. Darüber hinaus unterstützt der neue Sun Cluster-Befehlssatz kurze und lange Befehlsnamen. Die Befehlsausgabe bietet verbesserte Hilfe- und Fehlermeldungen sowie leichter lesbare Status- und Konfigurationsberichte. Einige der Befehle bieten außerdem Export- und Importoptionen unter Verwendung übertragbarer XML-basierter Konfigurationsdateien. Mit diesen Optionen können Sie einen Teil oder die gesamte Cluster-Konfiguration replizieren und das teilweise oder vollständige Klonen beschleunigen. Weitere Informationen finden Sie auf der Manpage Intro(1CL).

Verbesserte Integration und Verwaltung von Oracle RAC 10g

Die Installation sowie die Konfiguration der Sun Cluster Oracle RAC-Pakete wurde in die Sun Cluster-Verfahren mit aufgenommen. Neue Oracle RAC-spezifische Ressourcentypen und -eigenschaften ermöglichen eine exaktere Steuerung.

Durch die erweiterten Verwaltungsmöglichkeiten von Oracle RAC, die mit den Ressourcentypen ScalDeviceGroup und ScalMountPoint bereitgestellt werden, wird sowohl die Einrichtung von Oracle RAC innerhalb von Sun Cluster-Konfigurationen vereinfacht als auch die Diagnosemöglichkeiten und Verfügbarkeit verbessert. Weitere Informationen finden Sie im Handbuch Sun Cluster Data Service for Oracle RAC Guide for Solaris OS .

Assistenten für die Datendienstkonfiguration

Sun Cluster bietet neue Assistenten für die Datendienstkonfiguration, mit denen die Konfiguration üblicher Anwendungen durch automatische Erkennung gewählter Parameter und sofortiger Überprüfung vereinfacht wird. Die Assistenten für die Datendienstkonfiguration in Sun Cluster stehen in den folgenden zwei Formaten zur Verfügung:

Die folgenden Datendienste werden von der Sun Cluster Manager-GUI unterstützt:

Die Befehlszeilenschnittstelle clsetup unterstützt alle Anwendungen, die von Sun Cluster Manager unterstützt werden.

Weitere Informationen zu den jeweils unterstützten Datendiensten finden Sie in der Sun Cluster-Dokumentation.

Flexibles IP-Adressschema

Die Sun Cluster-Software bietet einen eingeschränkten IP-Adressenbereich für das eigene Interconnect. Zusätzlich können Sie die IP-Basisadresse und ihren Bereich während oder nach der Installation anpassen.

Diese Änderungen des IP-Adressschemas erleichtern die Integration von Sun Cluster-Umgebungen in bestehende Netzwerke mit eingeschränkten oder geregelten Adressbereichen. Weitere Informationen finden Sie unter How to Change the Private Network Address or Address Range of an Existing Cluster in Sun Cluster System Administration Guide for Solaris OS.

Sun Cluster-Unterstützung für Service Management Facility-Dienste

Die Sun Cluster-Software arbeitet nun eng mit dem Solaris 10 OS Service Management Facility (SMF) zusammen und ermöglicht die Integration SMF-gesteuerter Anwendungen in das Sun Cluster-Ressourcenverwaltungsmodel. Die lokale Lebenszyklusverwaltung auf Dienstebene wird weiterhin von SMF vorgenommen, während Cluster-weite ausfallbezogene Vorgänge (Knoten, Speicher) von der Sun Cluster-Software ausgeführt werden.

Der Wechsel von einer Solaris 10 OS-Umgebung mit einem Knoten zu einer Sun Cluster-Umgebung mit Mehrfachknoten ermöglicht eine verbesserte Verfügbarkeit bei minimalem Aufwand. Weitere Informationen finden Sie unter Enabling Solaris SMF Services to Run With Sun Cluster in Sun Cluster Data Services Planning and Administration Guide for Solaris OS.

Erweiterte Flexibilität für Fencing-Protokoll

Diese neue Funktionalität ermöglicht die Anpassung des Standard-Fencing-Protokolls. Zur Auswahl stehen SCSI-3, SCSI-2 und Erkennung je Gerät.

Diese Flexibilität ermöglicht die standardmäßige Verwendung des neueren Protokolls SCSI-3. Damit wird eine verbesserte Unterstützung für Multipathing, eine vereinfachte Verwendung mit Nicht-Sun-Speichern sowie eine kürzere Erkennungszeit bei neueren Speichern erreicht und gleichzeitig die Unterstützung für das Verhalten in Sun Cluster 3.0 und 3.1 sowie SCSI-2 für ältere Geräte beibehalten. Weitere Informationen finden Sie unter Administering the SCSI Protocol Settings for Storage Devices in Sun Cluster System Administration Guide for Solaris OS.

Sun Cluster Quorum Server

Die Sun Cluster-Software verfügt über eine neue Option für Quorum-Geräte. Anstelle einer gemeinsam genutzten Festplatte und SCSI-Reservierungsprotokollen kann nun ein Solaris-Server außerhalb des Clusters für die Ausführung eines Quorum-Server-Moduls verwendet werden, das ein unteilbares Reservierungsprotokoll über TCP/IP verwendet. Mit dieser Unterstützung werden bessere Failover-Zeiten erreicht und zudem geringere Bereitstellungskosten erzielt, da in einem Szenario mit erforderlichem (zwei Knoten) oder erwünschtem Quorum keine gemeinsam genutzte Quorum-Festplatte mehr erforderlich ist. Weitere Informationen finden Sie im Handbuch Sun Cluster Quorum Server User’s Guide .

Behandlung von Festplattenpfadfehlern

Die Sun Cluster-Software kann so konfiguriert werden, dass ein Knoten automatisch neu gestartet wird, wenn sämtliche Pfade des Knotens zu gemeinsam genutzten Festplatten fehlgeschlagen sind. Die schnellere Reaktion auf schwerwiegende Festplattenpfadfehler führt zu einer verbesserten Verfügbarkeit. Weitere Informationen finden Sie unter Administering Disk-Path Monitoring in Sun Cluster System Administration Guide for Solaris OS.

Verbesserte HAStoragePlus-Verfügbarkeit

Die Einhängepunkte für HAStoragePlus werden bei einem Eingliederungsfehler automatisch erstellt. Durch diese Funktion werden Failover-To-Failover-Fälle verhindert und somit die Verfügbarkeit der Umgebung verbessert.

Erweiterte Unterstützung für Solaris-Zonen

Die Sun Cluster-Software unterstützt nun die folgenden Datendienste in nicht globalen Solaris-Zonen.

Die Vorteile der durch Solaris-Zonen erreichten Anwendungssicherheit und der mit der Sun Cluster-Software erreichten verbesserten Verfügbarkeit können somit kombiniert werden. Weitere Informationen finden Sie in der Sun Cluster-Dokumentation zum jeweiligen Datendienst.

ZFS

ZFS wird als hochverfügbares lokales Dateisystem von Sun Cluster 3.2 unterstützt. ZFS bietet zusammen mit der Sun Cluster-Software eine erstklassige Dateisystemlösung, die Hochverfügbarkeit, Datenintegrität, Leistung und Skalierbarkeit vereint und somit den Anforderungen der anspruchsvollsten Umgebungen entspricht.

Kontinuierliche Verbesserungen werden dem ZFS hinzugefügt, um die Leistung bei jeder Arbeitslast, insbesondere bei Datenbanktransaktionen, zu optimieren. Stellen Sie sicher, dass Sie über die aktuellen ZFS-Korrekturversionen verfügen und Ihre Konfiguration entsprechend des spezifischen Typs an Arbeitslast optimiert ist.

HDS TrueCopy-Campus-Cluster

Sun Cluster-basierte Campus-Cluster unterstützen nun Controller-basierte HDS TrueCopy-Replikationen und ermöglichen somit eine automatisierte Verwaltung von TrueCopy-Konfigurationen. Die Sun Cluster-Software leitet bei einem Failover automatisch und transparent auf einen sekundären Campus-Standort um, wodurch das Verfahren weniger fehleranfällig ist und die allgemeine Verfügbarkeit der Lösung verbessert wird. Dank dieser neuen Remote-Datenreplikationsinfrastruktur unterstützt die Sun Cluster-Software neue Konfigurationen von Kunden, die in ihrer Lösung standardmäßig eine spezifische Datenreplikationsinfrastruktur, wie beispielsweise TrueCopy, verwenden sowie für Lösungen, in denen eine hostbasierte Replikation aufgrund der Entfernung oder Anwendungsinkompatiblität nicht infrage kommt.

Mit dieser neuen Kombination werden Verfügbarkeit verbessert und Kosten gesenkt. Vorhandene Replikationsstrukturen von TrueCopy-Kunden können von der Sun Cluster-Software genutzt werden, wodurch der Bedarf für zusätzliche Replikationslösungen entfällt.

Spezifikationsbasierter Campus-Cluster

Spezifikationsbasierte Campus-Cluster unterstützen nun eine größere Auswahl an Konfigurationen über große Entfernungen hinweg. Die Cluster unterstützen diese Konfigurationen, da sie anstelle einer Übereinstimmung mit einem festgelegten Satz an Entfernungen und Komponenten eine Übereinstimmung mit einer Verzögerungs- und Fehlerrate erfordern.

Weitere Informationen finden Sie in Kapitel 7, Campus Clustering With Sun Cluster Software in Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS.

Unterstützung für Multi-Terabyte-Festplatten und Extensible Firmware Interface (EFI)-Label

Sun Cluster-Konfigurationen unterstützen Festplatten mit einer Speicherkapazität von über 1 TB, die das neue Extensible Firmware Interface (EFI)-Festplattenformat verwenden: Dieses Format wird für Multi-Terabyte-Festplatten benötigt, kann jedoch auch für Festplatten mit geringerer Speicherkapazität verwendet werden. Mit dieser neuen Funktion zählen zu den unterstützten Sun Cluster-Konfigurationen somit nun auch Umgebungen mit High-End-Speicheranforderungen

Erweiterte Unterstützung für VERITAS-Softwarekomponenten

VERITAS Volume Manager und VERITAS File System, Bestandteil von VERITAS Storage Foundation 5.0, werden nun auf SPARC-Plattformen unterstützt. VERITAS Volume Manager 4.1 wird unter Solaris 10 OS auf x86/x64-Plattformen unterstützt.

VERITAS Volume Replicator (VVR) 5.0 und VERITAS Fast Mirror Resynchronization (FMR) 4.1 und 5.0, Bestandteil von VERITAS FlashSnap, können nun in Sun Cluster-Umgebungen auf SPARC-Plattformen verwendet werden.

Unterstützung für Kontingentverwaltung

Die Kontingentverwaltung kann nun mit HAStoragePlus auf lokalen UFS-Dateisystemen für eine verbesserte Steuerung der Ressourcennutzung verwendet werden.

Unterstützung für Oracle DataGuard

Die Sun Cluster-Software bietet eine verbesserte Bedienbarkeit von Oracle-Bereitstellungen, darunter DataGuard-Datenreplikationssoftware. Kunden können nun eine HA-Oracle-Datenbank als Teil einer Oracle DataGuard-Konfiguration angeben. Dabei kann es sich entweder um eine primäre Site oder eine Standby-Site handeln. Die sekundäre Datenbank kann als logische oder physische Standby-Datenbank konfiguriert sein. Weitere Informationen finden Sie im Sun Cluster Data Service for Oracle Guide for Solaris OS .


Hinweis –

Bei einer Verwaltung der Standby-Datenbank durch den HA-Oracle-Agenten, steuert der Agent nur das Starten, das Beenden und die Überwachung der Datenbank. Der Agent reinitialisiert bei einem Fallback der Datenbank auf einen anderen Knoten nicht die Wiederherstellung der Standby-Datenbank.


Aktualisierung mit Dual-Partition

Diese neue Software-Swap-Funktion vereinfacht das Aktualisiserungsverfahren erheblich. Jede Komponente des zusammen mit der Sun Cluster-Software eingesetzten Softwarestapels kann in einem Schritt aktualisisert werden: Solaris-Betriebssystem, Sun Cluster-Software, Dateisysteme, Volume-Manager, Anwendungen und Datendienste. Durch diese Automatisierung wird das Risiko von Bedienfehlern während einer Cluster-Aktualisierung reduziert und die Dienstausfallzeit, die bei einer standardmäßigen Cluster-Aktualisierung auftritt, minimiert.

Live Upgrade

Die Live Upgrade-Methode kann nun zusammen mit der Sun Cluster-Software verwendet werden. Mit dieser Methode wird die Systemausfallzeit eines Knotens während einer Aktualisierung reduziert und unnötige Neustartabläufe verhindert. Dadurch wird das erforderliche Wartungsfenster, bei dem der Dienst gefährdet ist, verkürzt.

Zum Zeitpunkt der Veröffentlichung kann Live Upgrade nur dann verwendet werden, wenn die Sun Cluster-Installation Solaris Volume Manager für die Verwaltung von Speicher- oder Festplattengruppen verwendet wird. Live Upgrade unterstützt derzeit nicht VxVM. Weitere Informationen finden Sie unter Aufrüstung.

Bei einem Live Upgrade von Solaris 8 auf Solaris 9 muss vor dem Neustart vom alternativen Root die Korrekturversion 116669-18 angewendet werden.

Optionale Sun Cluster Manager-Installation

Die Installation der Sun Cluster-Verwaltungs-GUI, Sun Cluster Manager, ist nun optional. Durch diese Änderung ist kein webbasierter Zugriff mehr auf das Cluster möglich. Potenzielle Sicherheitsregeln werden somit erfüllt. Weitere Informationen zum Aufheben der Auswahl von Sun Cluster Manager bei der Installation finden Sie unter Installieren der Sun Cluster-Framework- und Datendienst-Softwarepakete in Sun Cluster Handbuch Softwareinstallation für Solaris OS.

SNMP-Ereignis-MIB

Die Sun Cluster-Software beinhaltet einen neuen Sun Cluster-SNMP-Ereignismechanismus sowie eine neue SNMP-MIB. SNMP-Verwaltunsanwendungen von Drittanbietern können sich nun direkt bei der Sun Cluster-Software registrieren und Benachrichtigungen über Cluster-Ereignisse rechtzeitig empfangen. Durch eine detaillierte Ereignisbenachrichtigung und die direkte Integration in ein unternehmenseigenes Management-Framework von Drittanbietern per Standard-SNMP-Unterstützung wird eine proaktive Überwachung ermöglicht und die Verfügbarkeit verbessert. Weitere Informationen finden Sie unter Creating, Setting Up, and Managing the Sun Cluster SNMP Event MIB in Sun Cluster System Administration Guide for Solaris OS.

Befehlsprotokollierung

Befehlsinformationen können nun innerhalb der Sun Cluster-Software protokolliert werden. Damit wird die Diagnose von Cluster-Ausfällen erleichtert und ein Verlauf der Administrationsvorgänge für Archiv- oder Replikationszwecke bereitgestellt. Weitere Informationen finden Sie unter How to View the Contents of Sun Cluster Command Logs in Sun Cluster System Administration Guide for Solaris OS.

Überwachung der Arbeitslast von Systemressourcen

Die Sun Cluster-Software bietet neue Tools für die Messung und Visualisierung der Systemressourcenauslastung, darunter eine Funktion für die genaue Messung der Auslastung per Knoten, Ressource und Ressourcengruppe. Mit diesen neuen Tools werden Verlaufsdaten verfügbar gemacht und Schwellenwertverwaltung und CPU-Reservierung und -Steuerung ermöglicht. Diese verbesserte Steuerung führt zu einer verbesserten Verwaltung der Dienstebene und -kapazität.

Automatisches Erstellen von Mehrfachadapter-IPMP-Gruppen durch scinstall

Das interaktive Dienstprogramm scinstall konfiguriert nun abhängig von den jeweiligen im Subnetz verfügbaren Adaptern für jeden Satz öffentlicher Netzwerkadapter entweder eine Einzeladapter- oder eine Multiadapter-IPMP-Gruppe. Diese Funktion ersetzt das bisherige Verhalten des Dienstprogramms, bei dem eine Einzeladapter-IPMP-Gruppe für jeden verfügbaren Adapter unabhängig vom jeweiligen Subnetz erstellt wurde. Weitere Informationen hierzu sowie zu weiteren Änderungen an IPMP-Gruppenrichtlinien finden Sie unter Öffentliche Netzwerke in Sun Cluster Handbuch Softwareinstallation für Solaris OS.

Secure Shell-Unterstützung für Cluster Control Panel-Software

Die Secure Shell-Unterstützung für Cluster Control Panel (CCP) besteht aus folgenden neuen Funktionen:

Weitere Informationen zur Vorbereitung und Verwendung der Secure Shell-Funktionen des CCP finden Sie unter So installieren Sie die Software Cluster-Steuerbereich auf einer Verwaltungskonsole in Sun Cluster Handbuch Softwareinstallation für Solaris OS. Diesbezüglich aktualisierte Manpages finden Sie unter ccp(1M), cconsole(1M), crlogin(1M), cssh(1M) und ctelnet(1M) und serialports(4).

Ein Cluster-Interconnect als neue Mindestanforderung

Zwischen zwei Cluster-Knoten ist nunmehr nur noch ein Cluster-Interconnect erforderlich. Das interaktive Dienstprogramm scinstall wurde überarbeitet, sodass Sie im benutzerdefinierten Modus die Möglichkeit haben, nur ein Interconnect zu konfigurieren. Wenn Sie das Dienstprogramm im typischen Modus ausführen, müssen weiterhin zwei Interconnects konfiguriert werden. Weitere Informationen finden Sie unter Cluster-Interconnect in Sun Cluster Handbuch Softwareinstallation für Solaris OS.

IP-Filter-Unterstützung für Failover-Dienste

Sun Cluster 3.2 unterstützt den Solaris IP-Filter für Failover-Dienste. Solaris IP-Filter bietet Paketfilterung mit Status sowie Network Address Translation (NAT). Solaris IP-Filter bietet zudem die Möglichkeit, Adressen-Pools zu erstellen und zu verwalten. Weitere Informationen zu Solaris IP-Filter finden Sie in Teil IV, IP Security in System Administration Guide: IP Services im System Administration Guide: IP Services . Informationen zum Einrichten der IP-Filterfunktion mit der Sun Cluster-Software finden Sie unter Verwenden der Solaris IP-Filterfunktion mit Sun Cluster.

Einschränkungen

Fencing-Einschränkung für NetApp NAS

Die Fencing-Funktion erfordert, dass jeder Cluster-Knoten für den Zugriff auf die NetApp NAS-Einheit immer dieselbe Quell-IP-Adresse verwendet. Multi-Home-Systeme verwenden mehrere Quell-IP-Adressen. Administratoren von Multi-Home-Systemen müssen daher sicherstellen, dass beim Zugriff auf die NetApp NAS-Einheit immer dieselbe Quell-IP-Adresse verwendet wird. Hierzu muss das Netzwerk entsprechend konfiguriert werden.

Kompatibilität

Dieser Abschnitt enthält Informationen zur Sun Cluster-Kompatibilität, wie beispielsweise zu Funktionen, für die zukünftig keine Unterstützung mehr geplant ist.

Zukünftig nicht mehr unterstützte Funktionen

Die folgenden Funktionen werden von der Sun Cluster 3.2-Software zukünftig nicht mehr unterstützt.

Sun Cluster 3.0

Mit Herausgabe der Version Sun Cluster 3.2 wird Sun Cluster 3.0 nicht mehr unterstützt. Die Sun Cluster 3.0-Teilenummer ist nicht mehr verfügbar.

Solaris 8

Mit Herausgabe der Version Sun Cluster 3.2 unterstützt Sun Cluster nicht mehr Solaris 8.

Parallel ausgeführte Aktualisierung

Die Funktion für parallel ausgeführte Aktualisierungen ist für die Aktualisierung auf die jeweils vorherige Version möglicherweise nicht mehr verfügbar. In diesem Fall werden andere Verfahren bereitgestellt, mit denen die Cluster-Ausfallzeiten während dieser Software-Aktualisierungen minimiert werden können.

sccheck

Der Befehl sccheck wird in zukünftigen Versionen unter Umständen nicht mehr unterstützt. Die entsprechende Funktionalität wird jedoch mit dem Befehl cluster check bereitgestellt.

Solaris 10 11/06-Betriebssystem

Die folgenden bekannten Probleme beeinflussen möglicherweise die Ausführung von Sun Cluster 3.2 auf einem Solaris 10 11/06-Betriebssystem. Wenden Sie sich an Ihren Sun-Partner, um die erforderlichen Solaris-Korrekturversionen für die Behebung dieser Probleme zu erhalten. Weitere Informationen finden Sie im Infodoc 87995.


Achtung – Achtung –

Sie müssen das Betriebssystem auf Solaris 10 11/06 aktualisieren, bevor Sie die Solaris-Korrekturversionen anwenden.


6252216

Die Ausführung des Befehls metaset nach einem Neustart des rpcbind-Servers schlägt fehl.

6331216

Plattensätze: Die devid-Informationen werden nicht in einen neu erstellten Plattensatz geschrieben.

6345158

svm wird bei Schritt cmmstep5 mit Fehler 1 beendet; Knoten stürzen ab.

6367777

fsck: Der Start von svc:/system/filesystem/usr bei Meilenstein keine schlägt fehl.

6401357

Solaris Volume Manager (SVM) zeigt Metasatz nach Cluster-Aktualisierung unter x86 nicht an.

6402556

Das commd-Timeout sollte einem Prozentsatz des Timeout-Werts für metaclust entsprechen.

6474029

metaset -s diskset -t sollte Eigentümerschaft eines Cluster-Knotens nach einem Neustart übernehmen.

6496941

SVM entfernt weiterhin den Plattensatz bei fehlender Sun Cluster-Datei nodeid.

6367777

fsck* svc:/systsem/filesystem/usr kann bei Meilenstein nicht gestartet werden.

6367948

Neue fsck_ufs(1M) verhält sich bei der Verarbeitung einer bereits eingehängten Datei fehlerhaft.

6425930

Knotenabsturz mit CMM:Cluster verliert operatives Quorum in amd64.

6361537

create_ramdisk: cannot seek to offset-1-

6393691

Eintrag etc/cluster/nodeid zur Dateiliste hinzufügen.Ramdisk.

6344611

create_ramdisk muss bei fehlenden Dateien oder Verzeichnissen besser reagieren.

6462748

Beim Entfernen der devfsadm-Verknüpfung besteht keine vollständige Unterstützung.

fssnap-Unterstützung

Sun Cluster bietet keine Unterstützung der UFS-Funktion fssnap. Sie können fssnap auf lokalen Systemen verwenden, die nicht von Sun Cluster gesteuert werden. Für die fssnap-Unterstützung gelten folgende Einschränkungen:

Solaris Volume Manager-GUI

Das Enhanced Storage-Modul der Solaris Management Console (Solaris Volume Manager) ist mit der Sun Cluster-Software nicht kompatibel. Verwenden Sie die Befehlszeilenschnittstelle oder die Sun Cluster-Dienstprogramme, um die Solaris Volume Manager-Software zu konfigurieren.

Loopback File System (LOFS)

Die Verwendung des Loopback File System (Schleifendateisystem, LOFS) wird von der Sun Cluster 3.2-Software unter bestimmten Voraussetzungen nicht unterstützt. Wenn Sie LOFS auf einem Cluster-Knoten aktivieren müssen, beispielsweise für die Konfiguration von nicht globalen Zonen, überprüfen Sie zuerst, ob LOFS-Einschränkungen für Ihre Konfiguration gelten. Weitere Informationen zu Einschränkungen und Problemlösungen, die eine Verwendung von LOFS bei vorhandenen Einschränkungen ermöglichen, finden Sie unter Funktionsbeschränkungen unter Solaris in Sun Cluster Handbuch Softwareinstallation für Solaris OS.

Zugriffsfunktionen für Personen mit Behinderungen

Informationen zu Eingabehilfen, die seit der Veröffentlichung dieses Mediums herausgegeben wurden, finden Sie in Abschnitt 508 der Produktbeurteilungen, die Sie bei Sun auf Anfrage erhalten. Sie können hiermit ermitteln, welche Versionen sich am besten für die Bereitstellung zugänglicher Lösungen eignen.

In dieser Version geänderte Befehle

Dieser Abschnitt beschreibt Änderungen der Sun Cluster-Befehlszeilenschnittstelle, die dazu führen können, dass die Ausführung von Benutzerskripten fehlschlägt.

Objektorientierte Befehlszeilenschnittstelle

Ab der Sun Cluster 3.2-Version bietet die Sun Cluster-Software einen objektorientierten Befehlssatz. Die Sun Cluster-Software unterstützt zwar weiterhin den ursprünglichen Befehlssatz, in der Sun Cluster-Dokumentation werden jedoch ausschließlich die Verfahren mit dem objektorientierten Befehlssatz beschrieben. Weitere Informationen zum objektorientierten Befehlssatz finden Sie auf der Manpage Intro(1CL). Eine Liste der objektorientierten Befehle für übliche Sun Cluster-Verfahren finden Sie im Handbuch Sun Cluster Quick Reference.

Befehl scinstall

Die folgenden Optionen für den Befehl scinstall wurden in der Version Sun Cluster 3.2 geändert:

scconf-Befehl

Die -q-Option des Befehls scconf wurde geändert, um zwischen gemeinsam genutzten lokalen Quorum-Geräten (SCSI) und anderen Quorum-Gerätetypen (einschließlich NetApp-NAS-Geräte) zu unterscheiden. Verwenden Sie die Unteroption name, um den Namen des verbundenen, gemeinsam genutzten Speichergeräts anzugeben, wenn Sie ein gemeinsam genutztes Quorum-Gerät dem Cluster hinzufügen oder aus diesem entfernen. Diese Unteroption kann außerdem zusammen mit dem change-Formular des Befehls verwendet werden, um den Status eines Quorum-Geräts zu ändern. Die Unteroption globaldev kann weiterhin für gemeinsam genutzte SCSI-Speichergeräte verwendet werden. Für alle anderen gemeinsam genutzten Speichergerätetypen muss jedoch die Unteroption name verwendet werden. Weitere Informationen zur Änderung des Befehls scconf und zum Arbeiten mit Quorum-Geräten finden Sie auf den Manpages scconf(1M), scconf_quorum_dev_netapp_nas(1M), scconf_quorum_dev_netapp_nas(1M) und scconf_quorum_dev_scsi(1M).

Ressourceneigenschaften

Die Ressourceneigenschaft Network_resources_used muss nicht mehr direkt geändert werden. Verwenden Sie stattdessen die Eigenschaft Resource_dependencies. Der RGM aktualisiert die Eigenschaft Network_resources_used automatisch basierend auf den Einstellungen der Eigenschaft Resource_dependencies. Weitere Informationen zur aktuellen Verwendung dieser zwei Ressourceneigenschaften finden Sie auf der Manpage r_properties(5).

Änderungen von Produktnamen

Dieser Abschnitt enthält Informationen zu Änderungen von Produktnamen von Anwendungen, die von der Sun Cluster-Software unterstützt werden. Je nach eingesetzter Version der Sun Cluster-Software sind folgende Produktnamensänderungen möglicherweise nicht in Ihrer Sun Cluster-Dokumentation enthalten.


Hinweis –

Die Sun Cluster 3.2-Software ist als Solaris Cluster 3.2 und in der Sun Java Availability Suite erhältlich.


Aktueller Produktname 

Ehemaliger Produktname 

Sun Cluster Manager 

SunPlex-Manager 

Sun Cluster Agent Builder 

SunPlex Agent Builder 

Sun Java System Application Server 

Sun ONE Application Server 

Sun Java System Application Server EE (HADB) 

Sun Java System HADB 

Sun Java System Message Queue 

Sun ONE Message Queue 

Sun Java System Web Server 

  • Sun ONE Web Server

  • iPlanet Web Server

  • NetscapeTM HTTP

Unterstützte Produkte

Dieser Abschnitt beschreibt die unterstützte Software und die Speicheranforderungen für die Sun Cluster 3.2-Software.

Plattform 

Betriebssystem 

Datenträger-Manager 

Cluster-Funktion 

SPARC 

Solaris 9 

Solaris Volume Manager. 

Solaris Volume Manager for Sun Cluster. 

VERITAS Volume Manager 4.1. Für diese Unterstützung ist VxVM 4.1 MP2 erforderlich. 

VERITAS Volume Manager 4.1-Cluster-Funktion. 

VERITAS Volume Manager-Komponenten, die als Bestandteil von VERITAS Storage Foundation 4.1 bereitgestellt werden. Für diese Unterstützung ist VxVM 4.1 MP2 erforderlich. 

VERITAS Volume Manager 4.1-Cluster-Funktion. 

VERITAS Volume Manager-Komponenten, die als Bestandteil von VERITAS Storage Foundation 5.0 bereitgestellt werden. Für diese Unterstützung ist VxVM 5.0 MP1 erforderlich. 

VERITAS Volume Manager 5.0-Cluster-Funktion 

Solaris 10 

Solaris Volume Manager. 

Solaris Volume Manager for Sun Cluster. 

VERITAS Volume Manager 4.1. Für diese Unterstützung ist VxVM 4.1 MP2 erforderlich. 

VERITAS Volume Manager 4.1 mit Cluster-Funktion. 

VERITAS Volume Manager 4.1. Für diese Unterstützung ist VxVM 4.1 MP2 erforderlich. 

VERITAS Volume Manager 4.1 mit Cluster-Funktion. 

VERITAS Volume Manager-Komponenten, die als Bestandteil von VERITAS Storage Foundation 5.0 bereitgestellt werden. Für diese Unterstützung ist VxVM 5.0 MP1 erforderlich. 

VERITAS Volume Manager 5.0-Cluster-Funktion 

x86 

Solaris 10 

Solaris Volume Manager. 

Solaris Volume Manager for Sun Cluster. 

VERITAS Volume Manager-Komponenten, die als Bestandteil von VERITAS Storage Foundation 4.1 bereitgestellt werden. 

k.A: - Sun Cluster 3.2 unterstützt auf der x86-Plattform nicht die VxVM-Cluster-Funktion. 

Plattform 

Betriebssystem 

Dateisystem 

Funktionen und externe Datenträgerverwaltung 

SPARC 

Solaris 9 

Solaris UFS. 

Nicht verfügbar 

Sun StorEdge QFS: 

Nicht verfügbar 

QFS 4.5 Standalone Filesystem. 

Funktionen: 

  • HA-NFS

  • HA-Oracle

Externe Datenträgerverwaltung: 

  • SVM

  • VxVM

QFS 4.5 — Gemeinsam genutztes QFS-Dateisystem. 

Funktion: 

  • Oracle RAC

Externe Datenträgerverwaltung: 

  • SVM Cluster File Manager

QFS 4.6. 

Funktionen: 

  • Gemeinsam genutzte COTC QFS-Clients außerhalb des Clusters

  • HA-SAM-Failover

VERITAS File System 4.1. 

Nicht verfügbar 

VERITAS File System-Komponenten, die als Bestandteil von VERITAS Storage Foundation 4.1 und 5.0 bereitgestellt werden. 

Nicht verfügbar 

SPARC 

Solaris 10 

Solaris ZFS. 

Nicht verfügbar 

Solaris ZFS. 

Nicht verfügbar 

Sun StorEdge QFS: 

Nicht verfügbar 

QFS 4.5 Standalone Filesystem. 

Funktionen: 

  • HA-NFS

  • HA-Oracle

Externe Datenträgerverwaltung: 

  • SVM

  • VxVM

QFS 4.5 — Gemeinsam genutztes QFS-Dateisystem. 

Funktion: 

  • Oracle RAC

Externe Datenträgerverwaltung: 

  • SVM Cluster File Manager

QFS 4.6. 

Funktionen: 

  • Gemeinsam genutzte COTC QFS-Clients außerhalb des Clusters

  • HA-SAM-Failover

VERITAS File System 4.1. 

Nicht verfügbar 

VERITAS File System-Komponenten, die als Bestandteil von VERITAS Storage Foundation 4.1 und 5.0 bereitgestellt werden. 

Nicht verfügbar 

x86 

Solaris 10 

Solaris UFS. 

Nicht verfügbar 

Solaris ZFS. 

Nicht verfügbar 

Sun StorEdge QFS: 

Nicht verfügbar 

QFS 4.5 Standalone Filesystem. 

Funktionen: 

  • HA-NFS

  • HA-Oracle

Externe Datenträgerverwaltung: 

  • SVM

  • VxVM

QFS 4.5 — Gemeinsam genutztes QFS-Dateisystem. 

Funktion: 

  • Oracle RAC

Externe Datenträgerverwaltung: 

  • SVM Cluster File Manager

QFS 4.6. 

Funktionen: 

  • Gemeinsam genutzte COTC QFS-Clients außerhalb des Clusters

  • HA-SAM-Failover

Security Hardening von Sun Cluster

Security Hardening von Sun Cluster verwendet die Hardening-Techniken des Solaris-Betriebssystems, die vom Sun BluePrintsTM-Programm empfohlen werden, um grundlegende Security Hardening für Cluster zu erzielen. Solaris Security Toolkit automatisiert die Einführung von Security Hardening von Sun Cluster.

Die Sun Cluster Security Hardening-Dokumenation ist unter http://www.sun.com/blueprints/0203/817-1079.pdf verfügbar. Der Zugriff auf den Artikel ist auch über http://www.sun.com/software/security/blueprints möglich. Blättern Sie von diesem URL zur Architekturüberschrift, um den Beitrag “Securing the Sun Cluster 3.x Software” zu suchen.In der Dokumentation wird das Sichern von Sun Cluster 3.x-Bereitstellungen in einer Solaris-Umgebung beschrieben. Die Beschreibung enthält Anleitungen zur Verwendung des Solaris Security Toolkit und andere von den Sun-Sicherheitsexperten empfohlene Security-Techniken für optimale Resultate. Die folgenden Datendienste werden von Sun Cluster-Security Hardening unterstützt:

Bekannte Probleme und Programmierfehler

Die folgenden bekannten Probleme und Programmierfehler betreffen den Betrieb der Sun Cluster 3.2-Version. Die Fehler und Probleme sind in die folgenden Kategorien unterteilt:

Administration

Die Option clnode remove -f entfernt den Knoten bei der Solaris Volume Manager-Gerätegruppe nicht (6471834)

Zusammenfassung der Probleme Der Befehl -clnode remove --force sollte Knoten aus Metasets entfernen. Im Handbuch Sun Cluster System Administration Guide for Solaris OS werden Verfahren zum Entfernen eines Knotens aus dem Cluster angegeben. In diesen Verfahren werden die Benutzer angewiesen, vor der Ausführung von clnode remove den Befehl metaset für die Entfernung des Solaris Volume Manager-Plattensatzes auszuführen.

Problemumgehung: Wenn die korrekte Vorgehensweise nicht eingehalten wurde, kann es notwendig sein, die veralteten Knotendaten auf die übliche Weise aus CCR zu löschen: Verwenden Sie an einem aktiven Cluster-Knoten den Befehl metaset, um den Knoten aus den Solaris Volume Manager-Plattensätzen zu löschen. Führen Sie anschließend folgenden Befehl aus: clnode clear --force obsolete_nodename.

scsnapshot funktioniert bei Solaris 10 SUNWCluster-Metacluster nicht (6477905)

Zusammenfassung der Probleme Auf einem Cluster, der mit SUNWCuser, der Softwaregruppe für Solaris 10-Endbenutzer, installiert wurde, schlägt die Ausführung des Befehls scsnapshot möglicherweise fehl und es wird folgende Fehlermeldung ausgegeben:


# scsnapshot -o
…
/usr/cluster/bin/scsnapshot[228]: /usr/perl5/5.6.1/bin/perl:  not found

Problemumgehung: Führen Sie eine der beiden folgenden Optionen aus:

Einträge in der Eigenschaft Auxnodelist führen zu SEGV bei der Erstellung von Scalable-Ressourcen (6494243)

Zusammenfassung der Probleme Die Eigenschaft Auxnodelist der Ressource für gemeinsam genutzte Adressen kann während der Erstellung der Ressource für gemeinsam genutzte Adressen nicht verwendet werden. Dies führt zu Überprüfungsfehlern und zu SEGV, wenn die Scalable-Ressource erstellt wird, die von dieser Netzwerkressource für gemeinsamen genutzte Adressen abhängt. Die Meldung bezüglich des Überprüfungsfehlers der Scalable-Ressource weist folgendes Format auf:


Method methodname (scalable svc) on resource resourcename stopped or terminated 
due to receipt of signal 11

Außerdem wir die Kerndatei aus ssm_wrapper generiert. Die Benutzer können die Eigenschaft Auxnodelist nicht festlegen und somit die Cluster-Knoten nicht identifizieren, die als Host für die gemeinsam genutzte Adresse fungieren können, jedoch nie als primärer Cluster.

Problemumgehung: Erstellen Sie auf einem Knoten die Ressource für gemeinsam genutzte Adressen ohne Angabe der Eigenschaft Auxnodelist neu. Führen Sie anschließend den Befehl zur Erstellung einer Scalable-Ressource neu und verwenden Sie dabei die erneut erstellte Ressource für gemeinsam genutzte Adressen als Netzwerkressource.

Die clquorumserver-Befehle zum Starten und Stoppen sollten die Startstatus-Eigenschaft für den nächsten Bootvorgang festlegen (6496008)

Zusammenfassung der Probleme Der Quorum Server-Befehl clquorumserver legt den Status für den Startmechanismus für den nächsten Bootvorgang nicht korrekt fest.

Problemumgehung: Führen Sie folgende Aufgaben aus, um die Quorum Server-Software zu starten bzw. zu stoppen.

ProcedureStarten der Quorum Server-Software unter Solaris 10 OS

  1. Zeigen Sie den Status des quorumserver-Dienstes an.


    # svcs -a | grep quorumserver
    

    Wenn der Dienst deaktiviert ist, wird eine Ausgabe dieser Art angezeigt:


    disabled        3:33:45 svc:/system/cluster/quorumserver:default
  2. Starten Sie die Quorum Server-Software.

    • Wenn der quorumserver-Dienst deaktiviert ist, verwenden Sie den Befehl svcadm enable.


      # svcadm enable svc:/system/cluster/quorumserver:default
      
    • Wenn der quorumserver-Dienst online ist, verwenden Sie den Befehl clquorumserver.


      # clquorumserver start +
      

ProcedureStoppen der Quorum Server-Software unter Solaris 10 OS

    Deaktivieren Sie den quorumserver-Dienst.


    # svcadm disable svc:/system/cluster/quorumserver:default
    

ProcedureStarten der Quorum Server-Software unter Solaris 9 OS

  1. Starten Sie die Quorum Server-Software.


    # clquorumserver start +
    
  2. Benennen Sie die Datei /etc/rc2.d/.S99quorumserver in /etc/rc2.d/S99quorumserver um.


    # mv /etc/rc2.d/.S99quorumserver /etc/rc2.d/S99quorumserver
    

ProcedureStoppen der Quorum Server-Software unter Solaris 9 OS

  1. Stoppen Sie die Quorum Server-Software.


    # clquorumserver stop +
    
  2. Starten Sie die Quorum Server-Software.


    # mv /etc/rc2.d/S99quorumserver /etc/rc2.d/.S99quorumserver
    

Datendienste

Die Erstellung der Knotenagentenressource für Sun Cluster HA für Sun Java Systems Application Server ist erfolgreich, selbst wenn keine Ressourcenabhängigkeit von der Domain Administration Server (DAS)-Ressource festgelegt wurde (6262459)

Zusammenfassung der Probleme Beim Erstellen der Knotenagenten-Ressource (NA-Ressource) in Sun Cluster HA für Application Server wird die Ressource selbst dann erstellt, wenn keine Abhängigkeit von der DAS-Ressource festgelegt wurde. Der Befehl sollte mit einer Fehlermeldung abgebrochen werden, wenn die Abhängigkeit nicht festgelegt wurde, da die DAS-Ressource online sein muss, damit die NA-Ressource gestartet werden kann.

Problemumgehung: Vergewissern Sie sich beim Erstellen der NA-Ressource, dass Sie eine Ressourcenabhängigkeit von der DAS-Ressource festlegen.

Neue Variable in HA MySQL-Patch muss für alle neuen Instanzen konfiguriert werden (6516322)

Zusammenfassung der Probleme Der HA MySQL-Patch fügt der Datei mysql_config die neue Variable MYSQL_DATADIR hinzu. Diese neue Variable muss auf das Verzeichnis zeigen, in dem sich die MySQL-Konfigurationsdatei my.conf befindet. Wenn die Variable nicht ordnungsgemäß konfiguriert ist, schlägt die Datenbankvorbereitung mit mysql_register fehl.

Problemumgehung: Konfigurieren Sie die Variable MYSQL_DATADIR so, dass sie auf das Verzeichnis zeigt, in dem sich die MySQL-Konfigurationsdatei my.conf befindet.

Installation

Automatische Ermittlung mit InfiniBand-Konfigurationen kann zuweilen auf zwei Pfade hindeuten, die denselben Adapter verwenden (6299097)

Zusammenfassung der Probleme Wenn InfiniBand als Cluster-Transport verwendet wird und sich auf jedem Knoten zwei Adapter mit jeweils zwei Ports und insgesamt zwei Switches befinden, kann die automatische Adapter-Ermittlung des Dienstprogramms scinstall die Vermutung nahe legen, dass es sich um zwei Transportpfade handelt, die denselben Adapter verwenden.

Problemumgehung: Geben Sie die Transportadapter auf den beiden Knoten jeweils manuell an.

Support für IPv6-Scalable-Dienst nicht standardmäßig aktiviert (6332656)

Zusammenfassung der Probleme IPv6-Plumbing auf den Interconnects, das zur Weiterleitung von Paketen des IPv6-Scalable-Dienstes erforderlich ist, wird nicht mehr standardmäßig aktiviert. Die IPv6-Schnittstellen, die mithilfe des Befehls ifconfig angezeigt werden können, werden nicht mehr standardmäßig auf den Interconnect-Adaptern installiert.

Problemumgehung: Aktivieren Sie manuell die Unterstützung für Pv6-Scalable-Dienste.

ProcedureManuelle Aktivierung der Unterstützung für Pv6-Scalable-Dienste

Bevor Sie beginnen

Vergewissern Sie sich, dass Sie alle Cluster-Knoten für die Ausführung von IPv6-Diensten vorbereitet haben. Zu diesen Aufgaben gehören die ordnungsgemäße Konfiguration von Netzwerkschnittstellen, Server/Client-Anwendungssoftware, Namensdiensten und Routing-Infrastruktur. Wird dieser Vorgang nicht durchgeführt, können unerwartete Ausfälle der Netzwerkanwendungen auftreten. Weitere Informationen finden Sie in der Solaris-Systemverwaltungsdokumetntation für IPv6-Dienste.

  1. Fügen Sie auf jedem Knoten folgenden Eintrag zur Datei /etc/system hinzu.


    set cl_comm:ifk_disable_v6=0
    
  2. Aktivieren Sie auf jedem Knoten das IPv6-Plumbing auf den Interconnect-Adaptern.


    # /usr/cluster/lib/sc/config_ipv6
    

    Das Dienstprogramm config_ipv6stellt eine IPv6-Schnittstelle auf allen Cluster-Interconnect-Adaptern, die eine link-local-Adresse haben. Das Dienstprogramm aktiviert die ordnungsgemäße Weiterleitung von IPv6-Scalable-Service-Pakete über die Interconnects.

    Alternativ können Sie jeden Cluster-Knoten neu starten, um die Konfigurationsänderung zu aktivieren.

clnode add fügt keinen Hinweis aus einer XML-Datei hinzu, wenn die Datei Transportinformationen für eine direkte Verbindung enthält (6485249)

Zusammenfassung der Probleme Wenn versucht wird, den Befehl clnode add auf eine XML-Datei anzuwenden, die Transport mit direkter Verbindung verwendet, interpretiert der Befehl die Kabelinformationen falsch und fügt die falschen Konfigurationsinformationen hinzu. Als Folge davon kann der Verbindungsknoten den Cluster nicht verbinden.

Problemumgehung: Verwenden Sie den Befehl scinstall, um einen Knoten zum Cluster hinzuzufügen, wenn eine direkte Verbindung für den Cluster-Transport besteht.

Die Datei /etc/nsswitch.conf wird während der Installation außerhalb der globalen Zone nicht mit Informationen zu den Host- und Netzmasken-Datenbanken aktualisiert (6345227)

Zusammenfassung der Probleme Der Befehl scinstall aktualisiert die Datei /etc/nsswitch.conf zum Hinzufügen des Cluster-Eintrags für die Datenbanken hosts und netmasks. Durch diese Änderung wird die Datei /net/nsswitch.conf für die globale Zone aktualisiert. Wenn jedoch eine andere Zone als die globale Zone erstellt und installiert wird, erhält diese Zone eine eigene Kopie der Datei /etc/nsswitch.conf. Die /etc/nsswitch.conf-Dateien in den nicht globalen Zonen enthalten nicht den Cluster-Eintrag für die Datenbanken hosts und netmasks. Jeder Versuch, Cluster-spezifische private Hostnamen und IP-Adressen aus einer nicht globalen Zone mithilfe von getXbyY-Abfragen aufzulösen, scheitert.

Problemumgehung: Aktualisieren Sie manuell die Datei /etc/nsswitch.conf für nicht globale Zonen mit dem Cluster-Eintrag für die Datenbanken hosts und netmasks. Dadurch wird sichergestellt, dass die Cluster-spezifische Auflösungen der privaten Hostnamen und der IP-Adresse in den nicht globalen Zonen verfügbar sind.

Lokalisierung

Übersetzte Meldungen für Quorum Server werden als Bestandteil der Kernübersetzungspakete zugestellt (6482813)

Zusammenfassung der Probleme Übersetzte Meldungen für die Quorum Server-Verwaltungsprogramme, wie beispielsweise clquorumserver, werden als Bestandteil der Kernübersetzungspakete zugestellt. Daher werden Quorum Server-Meldungen ausschließlich in englischer Sprache angezeigt. Die Quorum Server-Übersetzungspakete müssen von den Kernübersetzungspaketen getrennt und auf dem Quorum Server-System installiert werden.

Problemumgehung: Installieren Sie folgende Pakete auf dem Host, auf dem die Quorum Server-Software installiert ist:

Wenn die japanische Manpage auf dem Quorum Server benötigt wird, installieren Sie das Paket SUNWjscman (japanische Manpage).

Das Installationsprogramm zeigt falsche Größe der Auslagerungsdatei für die Version von Sun Cluster 3.2 in vereinfachtem Chinesisch (6495984)

Zusammenfassung der Probleme Das Installationsprogramm von Sun Cluster 3.2 zeigt eine Warnmeldung über eine zu geringe Größe der Auslagerungsdatei, wenn die Version von Sun Cluster 3.2 in vereinfachtem Chinesisch installiert wird. Das Installationsprogramm gibt auf dem Bildschirm zur Überprüfung der Systemvoraussetzungen eine falsche Größe der Auslagerungsdatei von 0.0 KB an.

Problemumgehung: Wenn die Größe der Auslagerungsdatei über den Systemvoraussetzungen liegt, können Sie dieses Problem gefahrlos ignorieren. Das SC 3.2-Installationsprogramm im C-Gebietsschema (Englisch) kann zur Installation verwendet werden. Diese Version gibt bei der Überprüfung der Größe der Auslagerungsdatei den korrekten Wert an.

Laufzeit

SAP-Binärdatei cleanipc erfordert User_env-Parameter LD_LIBRARY_PATH (4996643)

Zusammenfassung der Probleme Der Befehl cleanipc schlägt fehl, wenn die Laufzeit-Verknüpfungs-Umgebung den Pfad /sapmnt/SAPSID/exe nicht enthält.

Problemumgehung: Fügen Sie als Solaris-Root-Benutzer den Pfad /sapmnt/SAPSID/exe zur Standardbibliothek in der Datei ld.config hinzu.

Geben Sie zur Konfiguration des Standardbibliothekspfads der Laufzeit-Verknüpfungs-Umgebung für 32–Bit-Anwendungen folgenden Befehl ein:


# crle -u -l /sapmnt/SAPSID/exe

Geben Sie zur Konfiguration des Standardbibliothekspfads der Laufzeit-Verknüpfungs-Umgebung für 64–Bit-Anwendungen folgenden Befehl ein:


# crle -64 -u -l /sapmnt/SAPSID/exe

Knoten stürzt aufgrund eines Fehlers beim metaclust-Rückgabeschritt ab: RPC: Programm nicht registriert (6256220)

Zusammenfassung der Probleme Wenn ein Cluster heruntergefahren wir, kann der UCMMD eine Neukonfiguration eines oder mehrerer Knoten einleiten, wenn einer der Knoten den Cluster kurz vor dem UCMMD verlässt. Wenn dieser Fall eintritt, stoppt das Herunterfahren den Befehl rpc.md auf dem Knoten, während der UCMMD versucht, den Rückgabeschritt durchzuführen. Im Rückgabeschritt tritt beim Befehl metaclust eine RPC-Zeitüberschreitung auf und der Schritt wird aufgrund des fehlenden rpc.mdcommd-Prozesses mit einem Fehler beendet. Dieser Fehler führt dazu, dass der UCMMD den Knoten abbricht, was zu dessen Absturz führen kann.

Problemumgehung: Sie können dieses Problem gefahrlos ignorieren. Beim erneuten Booten des Knotens erkennt die Sun Cluster-Software diesen Zustand und erlaubt dem UCMMD zu starten, obwohl bei der vorherigen Neukonfiguration ein Fehler auftrat.

Die Sun Cluster-Ressourcenüberprüfung akzeptiert den Hostnamen für IPMP-Gruppen für die Eigenschaft netiflist nicht (6383994)

Zusammenfassung der Probleme Während der Erstellung der Ressource für logische Hostnamen oder gemeinsam genutzte Adressen akzeptiert die Sun Cluster-Ressourcenüberprüfung den Hostnamen für IPMP-Gruppen für die Eigenschaft netiflist nicht.

Problemumgehung: Geben Sie bei der Erstellung der Ressource für logische Hostnamen und gemeinsam genutzte Adressen den Knotennamen anstatt der Knoten-ID für die IPMP-Gruppennamen an.

Aufrüstung

Das Skript vxlufinish gibt einen Fehler zurück, wenn die Root-Platte verkapselt ist (6448341)

Zusammenfassung der Probleme Dieses Problem tritt auf, wenn die ursprüngliche Platte eine Root-Verkapselung aufweist und ein Live-Upgrade von VxVM 3.5 unter Solaris 9 8/03 OS auf VxVM 5.0 unter Solaris 10 6/06 OS versucht wird. Das Skript vxlufinish schlägt fehl und es wird folgende Fehlermeldung ausgegeben:


#./vslufinish -u 5.10

    VERITAS Volume Manager VxVM 5.0
    Live Upgrade finish on the Solaris release <5.10>

    Enter the name of the alternate root diskgroup: altrootdg
ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory
ld.so.1: vxparms: fatal: libvxscsi.so: open failed: No such file or directory
Killed
ld.so.1: ugettxt: fatal: libvxscsi.so: open failed: No such file or directory
ERROR:vxlufinish Failed: /altroot.5.10/usr/lib/vxvm/bin/vxencap -d -C 10176
-c -p 5555 -g
    -g altrootdg rootdisk=c0t1d0s2
    Please install, if 5.0 or higher version of VxVM is not installed
    on alternate bootdisk.

Problemumgehung: Verwenden Sie stattdessen zur Aufrüstung die Standardaktualisierungsmethode oder die Aktualisierungsmethode mit Dual-Partition.

Wenden Sie sich an den Sun-Support oder Ihren Sun-Partner, um zu erfahren, ob eine Unterstützung für Sun Cluster 3.2 Live Upgrade für VxVM 5.0 zu einem späteren Zeitpunkt zur Verfügung steht.

Live Upgrade sollte Einhängen globaler Geräte vom Boot-Datenträger unterstützen (6433728)

Zusammenfassung der Probleme Beim Live Upgrade schlagen die Befehle lucreate und luupgrade fehl, mit denen DID-Namen in der alternativen Boot-Umgebung, die dem Eintrag /global/.devices/node@N entspricht, geändert werden.

Problemumgehung: Bevor Sie das Live Upgrade starten, führen Sie folgende Schritte auf allen Cluster-Knoten durch.

  1. Melden Sie sich als Superuser an.

  2. Sichern Sie die Datei /etc/vfstab.


    # cp /etc/vfstab /etc/vfstab.old
    
  3. Öffnen Sie die Datei /etc/vfstab zur Bearbeitung.

  4. Suchen Sie die Zeile, die /global/.device/node@N entspricht.

  5. Bearbeiten Sie den Eintrag für das globale Gerät.

    • Ändern Sie die DID-Namen in physische Namen.

      Ändern Sie /dev/did/{r}dsk/dYsZ in /dev/{r}dsk/cNtXdYs Z.

    • Entfernen Sie global aus dem Eintrag.

    Das folgende Beispiel zeigt den Namen des DID-Geräts d3s3, das /global/.devices/node@s entspricht, wobei der Name in den physischen Gerätenamen geändert und global aus dem Eintrag entfernt wurde:


    Original:
    /dev/did/dsk/d3s3    /dev/did/rdsk/d3s3    /global/.devices/node@2   ufs   2   no   global
    
    Changed:
    dev/dsk/c0t0d0s3     /dev/rdsk/c0t0d0s3    /global/.devices/node@2   ufs   2   no   -
  6. Nachdem Sie die Datei /etc/vfstab auf allen Cluster-Knoten geändert haben, führen Sie das Live Upgrade des Clusters durch. Unterbrechen Sie den Vorgang jedoch, bevor Sie einen Neustart in der aktualisierten alternativen Boot-Umgebung durchführen.

  7. Stellen Sie auf allen Knoten der aktuellen, nicht aktualisierten Boot-Umgebung die ursprüngliche Datei /etc/vfstab wieder her.


    # cp /etc/vstab.old /etc/vfstab
    
  8. Öffnen Sie in der alternativen Boot-Umgebung die Datei /etc/vfstab zur Bearbeitung.

  9. Suchen Sie die Zeile, die /global/.devices/node@N entspricht und ersetzen Sie den Strich (-) am Ende des Eintrags durch das Wort global.


    /dev/dsk/cNtXdYsZ    /dev/rdsk/cNtXdYsZ    /global/.devices/node@N   ufs   2   no   global
    
  10. Starten Sie den Knoten in der aktualisierten alternativen Boot-Umgebung neu.

    Die DID-Namen werden in der Datei /etc/vfstab automatisch ersetzt.

Das Skript vxlustart erstellt während eines Live Upgrade-Vorgangs keine alternative Bootumgebung (6445430)

Zusammenfassung der Probleme Dieses Problem tritt beim Aufrüsten von VERITAS Volume Manager (VxVM) während eines Sun Cluster Live Upgrade-Vorgangs auf. Das Skript vxlustart dient zur Aufrüstung von Solaris OS und VxVM von der Vorgängerversion. Das Skript schlägt fehl und es wird in etwa folgende Fehlermeldung ausgegeben:


# ./vxlustart -u 5.10 -d c0t1d0 -s OSimage

   VERITAS Volume Manager VxVM 5.0.
   Live Upgrade is now upgrading from 5.9 to <5.10>
…
ERROR: Unable to copy file systems from boot environment &lt;sorce.8876> to BE &lt;dest.8876>.
ERROR: Unable to populate file systems on boot environment &lt;dest.8876>.
ERROR: Cannot make file systems for boot environment &lt;dest.8876>.
ERROR: vxlustart: Failed: lucreate -c sorce.8876 -C /dev/dsk/c0t0d0s2 
-m -:/dev/dsk/c0t1d0s1:swap -m /:/dev/dsk/c0t1d0s0:ufs 
-m /globaldevices:/dev/dsk/c0t1d0s3:ufs -m /mc_metadb:/dev/dsk/c0t1d0s7:ufs 
-m /space:/dev/dsk/c0t1d0s4:ufs -n dest.8876

Problemumgehung: Verwenden Sie zur Aufrüstung des Clusters auf VxVM 5.0 die Standardaktualisierungsmethode oder die Aktualisierungsmethode mit Dual-Partition.

Wenden Sie sich an den Sun-Support oder Ihren Sun-Partner, um zu erfahren, ob eine Unterstützung für Sun Cluster 3.2 Live Upgrade für VxVM 5.0 zu einem späteren Zeitpunkt zur Verfügung steht.

vxio Bei verkapselter Root-Platte weicht die Geräteklasse zwischen den einzelnen Knoten voneinander ab (6445917)

Zusammenfassung der Probleme Bei Clustern, auf denen VERITAS Volume Manager (VxVM) ausgeführt wird, schlägt die Standardaktualisierungsmethode bzw. die Aktualisierungsmethode mit Dual-Partition fehl, wenn die Root-Platte verkapselt ist:

Der Cluster-Knoten stürzt nach der Aufrüstung ab und lässt sich nicht mehr booten. Dies liegt an den Änderungen an der Geräteklasse bzw. Gerätenummer, die von VxVM während der Aufrüstung vorgenommen wurden.

Problemumgehung: Heben Sie die Verkapselung der Root-Platte auf, bevor sie mit der Aufrüstung beginnen.


Achtung – Achtung –

Wenn das oben angegebene Verfahren nicht richtig befolgt wird, können ernsthafte unerwartete Probleme auf allen Knoten auftreten, die gerade aufgerüstet werden. Außerdem führt das Aufheben der Verkapselung bzw. die Verkapselung der Root-Platte (jedes Mal) zu einem zusätzlichen automatischen Neustart des Knotens, wodurch sich die Anzahl der erforderlichen Boot-Vorgänge während des Aufrüstens erhöht.


Nach einem Live Upgrade von Sun Cluster-Version 3.1 unter Solaris 9 auf Version 3.2 unter Solaris 10 können keine Zonen verwendet werden (6509958)

Zusammenfassung der Probleme Nach einem Live Upgrade von Sun Cluster-Version 3.1 unter Solaris 9 auf Version 3.2 unter Solaris 10 können Zonen mit der Cluster-Software nicht ordnungsgemäß verwendet werden. Die Ursache des Problems liegt darin, dass die pspool-Daten für die Sun Cluster-Pakete nicht erstellt werden. Das heißt, diese Pakete, die an die nicht globalen Zonen weitergegeben werden müssen (z. B. SUNWsczu), werden nicht ordnungsgemäß weitergegeben.

Problemumgehung: Führen Sie nach der Aktualisierung der Sun Cluster-Pakete mit dem Befehl scinstall -R jedoch vor dem Starten des Knotens im Cluster-Modus folgendes Skript zweimal aus:

ProcedureAnweisungen für die Verwendung des Skripts

Bevor Sie beginnen

Bereiten Sie das Skript auf eine der folgenden Arten vor und führen Sie es aus:

  1. Melden Sie sich als Superuser an.

  2. Erstellen Sie ein Skript mit folgendem Inhalt.

    #!/bin/ksh
    
    typeset PLATFORM=${PLATFORM:-`uname -p`}
    typeset PATHNAME=${PATHNAME:-/cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages}
    typeset BASEDIR=${BASEDIR:-/}
    
    cd $PATHNAME
    for i in *
    do
    	if pkginfo -R ${BASEDIR} $i >/dev/null 2>&1
    	then
    		mkdir -p ${BASEDIR}/var/sadm/pkg/$i/save/pspool
    		pkgadd -d . -R ${BASEDIR} -s ${BASEDIR}/var/sadm/pkg/$i/save/pspool $i
    	fi
    done
  3. Legen Sie die Variablen PLATFORM, PATHNAME und BASEDIR fest.

    Legen Sie diese Variablen entweder als Umgebungsvariablen fest oder bearbeiten Sie die Werte direkt im Skript.

    PLATFORM

    Der Name der Plattform Zum Beispiel sparc oder x86. Der Standardwert der Variable PLATFORM ist die Ausgabe des Befehls uname -p.

    PATHNAME

    Ein Pfad zu dem Gerät, von dem die Sun Cluster-Framework-Pakete bzw. -Datendienstpakete installiert werden können. Dieser Wert entspricht der Option -d im Befehl pkgadd.

    Für Sun Cluster-Framework-Pakete hat dieser Wert beispielsweise folgendes Format:


    /cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster/Solaris_10/Packages

    Für Datendienstpakete hat dieser Wert beispielsweise folgendes Format:


    /cdrom/cdrom0/Solaris_${PLATFORM}/Product/sun_cluster_agents/Solaris_10/Packages
    BASEDIR

    Der vollständige Pfadname des Verzeichnisses, das als Root-Pfad verwendet werden soll und mit der Option -R des Befehls pkgadd übereinstimmt. Legen Sie für ein Live Upgrade diesen Wert mit dem Root-Pfad fest, der mit der Option -R des Befehls scinstall verwendet wird. Der Standardwert der Variable BASEDIR ist das Root-(/-)Dateisystem.

  4. Führen Sie das Skript einmal für die Sun Cluster-Framework-Pakete und einmal für die Datendienstpakte aus.

    Nach Ausführung des Skripts wird für jedes Paket folgende Meldung in der Befehlseingabeaufforderung angezeigt:


    Transferring pkgname package instance

    Hinweis –

    Wenn das Verzeichnis pspool bereits für ein Paket vorhanden ist oder das Skript zweimal für denselben Paketsatz ausgeführt wird, wird folgender Fehler in der Befehlseingabeaufforderung angezeigt:


    Transferring pkgname package instance
    pkgadd: ERROR: unable to complete package transfer
        - identical version of pkgname already exists on destination device

    Diese Meldung ist harmlos und kann ignoriert werden.


  5. Nachdem Sie das Skript sowohl für die Framework-Pakete als auch für die Datendienstpakete ausgeführt haben, starten Sie die Knoten im Cluster-Modus.

Hinzufügen eines Knoten zu einem gepatchten Sun Cluster 3.2-Cluster ohne Hinzufügen des Sun Cluster 3.2-Core-Patches zum Knoten nicht möglich (6554107)

Zusammenfassung der Probleme Wenn Sie einen neuen Cluster-Knoten hinzufügen, der nicht über dieselben Patches wie die bestehenden Cluster-Knoten verfügt, kann es zu einem Ausfall der Cluster-Knoten kommen.

Problemumgehung: Stellen Sie vor dem Hinzufügen eines Knotens zum Cluster sicher, dass der neue Knoten über dieselben Patch-Versionen wie die bestehenden Cluster-Knoten verfügt. Wenn Sie diese Überprüfung nicht durchführen, kann es zu einem Ausfall der Knoten kommen.

Korrekturversionen und erforderliche Firmware-Ebenen

Dieser Abschnitt enthält Informationen über Korrekturversionen für Sun Cluster-Konfigurationen. Wenn Sie auf die Sun Cluster 3.2-Software aufrüsten, lesen Sie Kapitel Kapitel 8, Aufrüsten der Sun Cluster-Software in Sun Cluster Handbuch Softwareinstallation für Solaris OS. Das Anwenden einer Sun Cluster 3.2 Core-Korrekturversion führt nicht zu demselben Ergebnis wie das Aktualisieren der Software auf die Version Sun Cluster 3.2.


Hinweis –

Lesen Sie die README-Datei, bevor Sie ein Patch anwenden oder entfernen.


Wenn Sie die Patch-Methode mit Knoten-Neustart für die Installation des Sun Cluster-Core-Patches 125510 (S9/SPARC), 125511 (S10/SPARC) oder 125512 (S19/x64) verwenden, benötigen Sie die -02-Version des jeweiligen Patches, bevor Sie eine höhere Version des Patches installieren können. Wenn die -02-Version des Patches nicht installiert ist und Sie die -03-Version oder höher (falls verfügbar) installieren möchten, müssen Sie die Cluster-Neustart-Methode verwenden.

Im Folgenden werden Beispielszenarios für die Patch-Anwendung aufgeführt:


Hinweis –

Sie müssen ein registrierter SunSolveTM-Benutzer sein, um die erforderlichen Korrekturversionen für das Sun Cluster-Produkt herunterladen zu können. Wenn Sie nicht über ein SunSolve-Konto verfügen, wenden Sie sich an Ihren Sun-Kundenberater oder Fachberater bzw. registrieren Sie sich online unter http://sunsolve.sun.com.


Anwenden des Sun Cluster 3.2-Core-Patches

Führen Sie folgendes Verfahren durch, um den Sun Cluster 3.2-Core-Patch anzuwenden.

ProcedureSo wenden Sie den Sun Cluster 3.2-Core-Patch an

  1. Installieren Sie den Patch mit dem für ein Core-Patch üblichen Neustart-Patch-Verfahren.

  2. Überprüfen Sie, ob der Patch auf allen Knoten ordnungsgemäß installiert wurde und ordnungsgemäß ausgeführt wird.

  3. Registrieren Sie die neue Version der Ressourcentypen SUNW.HAStoragePlus, SUNW.ScalDeviceGroup and SUNW.ScalMountPoint, die in diesem Patch aktualisiert wurden. Aktualisieren Sie die Ressourcentypen auf einer vorhandenen Ressource dieses Typs auf die jeweils neue Version.

    Informationen zum Registrieren eines Ressourcentyps finden Sie unter Registering a Resource Type in Sun Cluster Data Services Planning and Administration Guide for Solaris OS im Sun Cluster Data Services Planning and Administration Guide for Solaris OS .


    Achtung – Achtung –

    Wenn der Sun Cluster 3.2-Core-Patch entfernt wird, müssen alle in Schritt 3 aktualisierten Ressourcen auf die vorherige Version des Ressourcentyps abgerüstet werden. Für das Verfahren zum Abrüsten müssen Ausfallzeiten dieser Dienste eingeplant werden. Führen Sie daher Schritt 3 nur dann durch, wenn Sie den Sun Cluster 3.2-Core-Patch permanent auf Ihrem Cluster anwenden möchten.


Entfernen des Sun Cluster 3.2-Core-Patches

Führen Sie folgendes Verfahren durch, um den Sun Cluster 3.2-Core-Patch zu entfernen.

ProcedureSo entfernen Sie den Sun Cluster 3.2-Core-Patch

  1. Listen Sie die auf dem Cluster vorhandenen Ressourcentypen auf.


    # clrt list
    
  2. Wenn die zurückgegebene Liste SUNW.HAStoragePlus:5, SUNW.ScalDeviceGroup:2 oder SUNW.ScalMountPoint:2 enthält, müssen Sie diese Ressourcentypen entfernen. Anweisungen zum Entfernen eines Ressourcentyps finden Sie unter How to Remove a Resource Type in Sun Cluster Data Services Planning and Administration Guide for Solaris OS im Sun Cluster Data Services Planning and Administration Guide for Solaris OS .

  3. Starten Sie alle Cluster-Knoten im Nicht-Cluster- und Einzelbenutzer-Modus neu.

    Anweisungen für den Neustart von Cluster-Knoten im Nicht-Cluster- und Einzelbenutzer-Modus finden sie unter How to Boot a Cluster Node in Noncluster Mode in Sun Cluster System Administration Guide for Solaris OS im Sun Cluster System Administration Guide for Solaris OS .

  4. Entfernen Sie den Sun Cluster 3.2-Core-Patch auf jedem Knoten, auf dem der Patch installiert wurde.


    # patchrm patch-id
    
  5. Starten Sie alle Knoten, auf denen Sie den Sun Cluster 3.2-Core-Patch entfernt haben, im Cluster-Modus neu.

    Dadurch, dass sämtliche Knoten, auf denen Sie den Sun Cluster 3.2-Core-Patch entfernt haben, vor dem Neustart nicht betroffener Knoten neu gestartet werden, wird sichergestellt, dass der Cluster mit den richtigen Informationen im CCR aufgebaut wird. Wenn der Core-Patch auf alle Knoten im Cluster angewendet wurde, können Sie den Neustart der Knoten im Cluster-Modus in beliebiger Reihenfolge durchführen.

    Anweisungen für den Neustart von Knoten im Cluster-Modus finden Sie unter How to Reboot a Cluster Node in Sun Cluster System Administration Guide for Solaris OS im Sun Cluster System Administration Guide for Solaris OS .

  6. Starten Sie alle übrigen Knoten im Cluster-Modus neu.

Verwaltungstools für Korrekturversionen

Die PatchPro-Verwaltungstechnologie für Korrekturversionen ist als Patch Manager 2.0 für Solaris 9 OS und als Sun Update Connection 1.0 für Solaris 10 OS verfügbar.

Wenn Korrekturversionen bei Ausführung des Knotens im Nicht-Cluster-Modus angewendet werden müssen, können Sie diese parallel auf jeweils einem Knoten anwenden, es sei denn, in den Anweisungen zu einer der Korrekturversion ist angegeben, dass Sie den gesamten Cluster herunterfahren müssen. Um den Knoten vorzubereiten und ihn im Nicht-Cluster-Modus zu starten, folgen Sie den Anweisungen unter How to Apply a Rebooting Patch (Node) in Sun Cluster System Administration Guide for Solaris OS. Um die Installation zu vereinfachen, ziehen Sie die gleichzeitige Anwendung aller Korrekturversionen auf einen Knoten im Nicht-Cluster-Modus in Betracht.

SunSolve Online

Die SunSolve-Online-Website bietet rund um die Uhr Zugriff auf die neuesten Informationen über Korrekturversionen, Software und Firmware für Sun-Produkte. Auf der Site SunSolve Online unter http://sunsolve.sun.com haben Sie Zugriff auf die aktuellsten Matrizen der unterstützten Software-, Firmware- und Programmkorrekturversionen.

Sun Cluster 3.2-Informationen zu Korrekturversionen von Drittanbietern stehen auf einer SunSolve Info Doc-Seite zur Verfügung. Diese Info Doc-Seite enthält Informationen bezüglich sämtlicher Korrekturversionen von Drittanbietern zur jeweiligen Hardware, die Sie in einer Sun Cluster 3.2-Umgebung einsetzen möchten. Um diese Info Doc-Seite zu konsultieren, melden Sie sich bei SunSolve an. Geben Sie auf der SunSolve-Startseite Sun Cluster 3.x Third-Party Patches in das Suchfeld ein.

Bevor Sie die Sun Cluster 3.2-Software installieren und die Korrekturversion in eine Cluster-Komponente (Solaris-Betriebssystem, Sun Cluster-Software, Datenträgerverwaltungssoftware, Datendienstsoftware oder Plattenhardware) übernehmen, lesen Sie die jeweiligen README-Dateien, die in den von Ihnen abgerufenen Korrekturversionen enthalten sind. Alle Cluster-Knoten müssen auf dem gleichen Korrekturversionsstand sein, damit der Cluster-Betrieb einwandfrei verläuft.

Spezielle Verfahren für Korrekturversionen und Tipps zur Verwaltung von Korrekturversionen erhalten Sie in Kapitel Kapitel 10, Patching Sun Cluster Software and Firmware in Sun Cluster System Administration Guide for Solaris OS.

Sun Cluster 3.2-Dokumentation

Die Sun Cluster 3.2-Benutzerdokumentationsreihe besteht aus folgenden Sammlungen:

Die Sun Cluster 3.2-Benutzerdokumentationsreihe steht in PDF- und HTML-Format auf folgender Website zur Verfügung.

http://htt;://docs.sun.com/app/docs/prod/sun.cluster32


Hinweis –

Mit Einführung von Sun Cluster 3.2 wird die Dokumentation zu den einzelnen Datendiensten nicht mehr übersetzt. Die Dokumentation zu den einzelnen Datendiensten steht zukünftig ausschließlich in englischer Sprache zur Verfügung.


Sun-Produktdokumentation wird durchsucht

Zusätzlich zum Durchsuchen der Sun-Produktionsdokumentation auf der Website docs.sun.com können Sie eine Suchmaschine Ihrer Wahl verwenden, indem Sie folgende Syntax in das Suchfeld eingeben:


search-term site:docs.sun.com

Wenn Sie beispielsweise nach “Broker„ suchen möchten, geben Sie Folgendes ein:


broker site:docs.sun.com

Wenn Sie andere Sun-Websites in die Suche einbeziehen möchten (beispielsweise java.sun.com, www.sun.com und developers.sun.com), geben Sie “sun.com„ anstelle von “docs.sun.com„ in das Suchfeld ein.

Sun Cluster 3.2-Softwarehandbücher für Solaris OS

Tabelle 1 Sun Cluster 3.2-Software Dokumentationsreihe für Solaris OS-Softwarehandbücher

Teilenummer 

Buchtitel 

820–0335 

Sun Cluster 3.2 Documentation Center

819-2969 

Sun Cluster Concepts Guide for Solaris OS

819-2972 

Sun Cluster Data Services Developer’s Guide for Solaris OS

819-2974 

Sun Cluster Data Services Planning and Administration Guide for Solaris OS

819-2973 

Sun Cluster Error Messages Guide for Solaris OS

819-2968 

Sun Cluster Overview for Solaris OS

819-3055 

Sun Cluster Reference Manual for Solaris OS

819-2970 

Sun Cluster Handbuch Softwareinstallation für Solaris OS

819–0912 

Sun Cluster Kurzreferenz für Solaris OS

819-2971 

Sun Cluster System Administration Guide for Solaris OS

Sun Cluster 3.2-Datendiensthandbücher für Solaris OS (SPARC Platform Edition)

Tabelle 2 Sun Cluster 3.2-Software Dokumentationsreihe für Solaris OS (SPARC Platform Edition): Einzelne Datendiensthandbücher

Teilenummer 

Buchtitel 

819-3056 

Sun Cluster Data Service for Agfa IMPAX Guide for Solaris OS

819-2975 

Sun Cluster Data Service for Apache Guide for Solaris OS

819-3057 

Sun Cluster Data Service for Apache Tomcat Guide for Solaris OS

819-3058 

Sun Cluster Data Service for DHCP Guide for Solaris OS

819-2977 

Sun Cluster Data Service for DNS Guide for Solaris OS

819–5415 

Sun Cluster Data Service for Kerberos Guide for Solaris OS

819-2982 

Sun Cluster Data Service for MaxDB Guide for Solaris OS

819-3059 

Sun Cluster Data Service for MySQL Guide for Solaris OS

819-3060 

Sun Cluster Data Service for N1 Grid Service Provisioning System for Solaris OS

819-0693 

Sun Cluster Data Service for NetBackup Guide for Solaris OS

819-2979 

Sun Cluster Data Service for NFS Guide for Solaris OS

819-3061 

Sun Cluster Data Service for Oracle Application Server Guide for Solaris OS

819-3062 

Sun Cluster Data Service for Oracle E-Business Suite Guide for Solaris OS

819-2980 

Sun Cluster Data Service for Oracle Guide for Solaris OS

819-2981 

Sun Cluster Data Service for Oracle RAC Guide for Solaris OS

819–5578 

Sun Cluster Data Service for PostgreSQL Guide for Solaris OS

819-3063 

Sun Cluster Data Service for Samba Guide for Solaris OS

819-2983 

Sun Cluster Data Service for SAP Guide for Solaris OS

819-2984 

Sun Cluster Data Service for SAP liveCache Guide for Solaris OS

819-2985 

Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS

819-2986 

Sun Cluster Data Service for Siebel Guide for Solaris OS

819-3069 

Sun Cluster Data Service for Solaris Containers Guide

819-3064 

Sun Cluster Data Service for Sun Grid Engine Guide for Solaris OS

819-2988 

Sun Cluster Data Service for Sun Java System Application Server Guide for Solaris OS

819-2987 

Sun Cluster Data Service for Sun Java System Application Server EE (HADB) Guide for Solaris OS

819-2989 

Sun Cluster Data Service for Sun Java System Message Queue Guide for Solaris OS

819-2990 

Sun Cluster Data Service for Sun Java System Web Server Guide for Solaris OS

819-3065 

Sun Cluster Data Service for SWIFTAlliance Access Guide for Solaris OS

819-3066 

Sun Cluster Data Service for SWIFTAlliance Gateway Guide for Solaris OS

819-2991 

Sun Cluster Data Service for Sybase ASE Guide for Solaris OS

819-2992 

Sun Cluster Data Service for WebLogic Server Guide for Solaris OS

819-3068 

Sun Cluster Data Service for WebSphere Message Broker Guide for Solaris OS

819-3067 

Sun Cluster Data Service for WebSphere MQ Guide for Solaris OS

Sun Cluster 3.2-Datendiensthandbücher für Solaris OS (x86 Platform Edition)

Tabelle 3 Sun Cluster 3.2-Software Dokumentationsreihe für Solaris OS (x86 Platform Edition): Einzelne Datendiensthandbücher

Teilenummer 

Buchtitel 

819-2975 

Sun Cluster Data Service for Apache Guide for Solaris OS

819-2975 

Sun Cluster Data Service for Apache Tomcat Guide for Solaris OS

819-3058 

Sun Cluster Data Service for DHCP Guide for Solaris OS

819-2977 

Sun Cluster Data Service for DNS Guide for Solaris OS

819–5415 

Sun Cluster Data Service for Kerberos Guide for Solaris OS

819-2982 

Sun Cluster Data Service for MaxDB Guide for Solaris OS

819-3059 

Sun Cluster Data Service for MySQL Guide for Solaris OS

819-3060 

Sun Cluster Data Service for N1 Grid Service Provisioning System for Solaris OS

819-2979 

Sun Cluster Data Service for NFS Guide for Solaris OS

819-3061 

Sun Cluster Data Service for Oracle Application Server Guide for Solaris OS

819-2980 

Sun Cluster Data Service for Oracle Guide for Solaris OS

819-2981 

Sun Cluster Data Service for Oracle RAC Guide for Solaris OS

819–5578 

Sun Cluster Data Service for PostgreSQL Guide for Solaris OS

819-3063 

Sun Cluster Data Service for Samba Guide for Solaris OS

819-2983 

Sun Cluster Data Service for SAP Guide for Solaris OS

819-2985 

Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS

819-3069 

Sun Cluster Data Service for Solaris Containers Guide

819-3064 

Sun Cluster Data Service for Sun Grid Engine Guide for Solaris OS

819-2987 

Sun Cluster Data Service for Sun Java System Application Server EE (HADB) Guide for Solaris OS

819-2988 

Sun Cluster Data Service for Sun Java System Application Server Guide for Solaris OS

819-2989 

Sun Cluster Data Service for Sun Java System Message Queue Guide for Solaris OS

819-2990 

Sun Cluster Data Service for Sun Java System Web Server Guide for Solaris OS

819-2992 

Sun Cluster Data Service for WebLogic Server Guide for Solaris OS

819-3067 

Sun Cluster Data Service for WebSphere MQ Guide for Solaris OS

819-3068 

Sun Cluster Data Service for WebSphere Message Broker Guide for Solaris OS

Sun Cluster 3.1 - 3.2-Hardware Dokumentationsreihe für Solaris OS (SPARC Platform Edition)

Tabelle 4 Sun Cluster 3.1 - 3.2-Hardware Dokumentationsreihe für Solaris OS (SPARC Platform Edition)

Teilenummer 

Buchtitel 

819-2993 

Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS

819–2995 

Sun Cluster 3.1 - 3.2 With SCSI JBOD Storage Device Manual for Solaris OS

819-3015 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 3310 or 3320 SCSI RAID Array Manual for Solaris OS

819-3016 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 3510 or 3511 FC RAID Array Manual for Solaris OS

819-3017 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 3900 Series or Sun StorEdge 6900 Series System Manual

819-3018 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 6120 Array Manual for Solaris OS

819-3020 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 6320 System Manual for Solaris OS

819-3021 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 9900 Series Storage Device Manual for Solaris OS

819-2996 

Sun Cluster 3.1 - 3.2 With StorEdge A1000 Array, Netra st A1000 Array, or StorEdge A3500 System Manual

819-3022 

Sun Cluster 3.1 - 3.2 With Sun StorEdge A3500FC System Manual for Solaris OS

819-2994 

Sun Cluster 3.1 - 3.2 With Fibre Channel JBOD Storage Device Manual

817–5681 

Sun Cluster 3.1 - 3.2 With SCSI JBOD Storage Device Manual for Solaris OS

819-3023 

Sun Cluster 3.1 - 3.2 With Sun StorEdge T3 or T3+ Array Manual for Solaris OS

819-3019 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 6130 Array Manual

819-3024 

Sun Cluster 3.1 - 3.2 With Network-Attached Storage Devices Manual for Solaris OS

Sun Cluster 3.1 — 3.2 Hardware Collection for Solaris OS (x86 Platform Edition)

Tabelle 5 Sun Cluster 3.1 – 3.2 Hardware Collection for Solaris OS (x86 Platform Edition)

Teilenummer 

Buchtitel 

819-2993 

Sun Cluster 3.1 - 3.2 Hardware Administration Manual for Solaris OS

817–0180 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 3310 or 3320 SCSI RAID Array Manual for Solaris OS

819-3024 

Sun Cluster 3.1 - 3.2 With Network-Attached Storage Devices Manual for Solaris OS

819-3021 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 9900 Series Storage Device Manual for Solaris OS

819-3020 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 6320 System Manual for Solaris OS

819-3019 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 6130 Array Manual

819-3018 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 6120 Array Manual for Solaris OS

819-3016 

Sun Cluster 3.1 - 3.2 With Sun StorEdge 3510 or 3511 FC RAID Array Manual for Solaris OS

819–2995 

Sun Cluster 3.1 - 3.2 With SCSI JBOD Storage Device Manual for Solaris OS

Dokumentationsprobleme

Dieser Abschnitt beschreibt Fehler oder Auslassungen in der Dokumentation, Online-Hilfe bzw. Online-Dokumentation (Manpages) zu Sun Cluster 3.2.

Konzept-Guide

In diesem Abschnitt werden Fehler und Auslassungen im Sun Cluster Concepts Guide for Solaris OS behandelt.

x86: Sun Cluster-Topologien für x86

Die folgenden Informationen im Abschnitt Sun Cluster Topologies for x86 in Sun Cluster Concepts Guide for Solaris OS sind für Sun Cluster 3.2 nicht gültig: "Sun Cluster unterstützt in x86-basierten Systemen zwei Knoten in einem Cluster."

Diese Informationen müssen wie folgt lauten: "Eine Sun Cluster-Konfiguration mit x86-basierten Systemen unterstützt bis zu acht Knoten in einem Cluster, der unter Oracle RAC ausgeführt wird, bzw. bis zu vier Knoten in einem Cluster, der nicht unter Oracle RAC ausgeführt wird."

Software-Installationshandbuch

In diesem Abschnitt werden Fehler und Auslassungen im Sun Cluster Handbuch Softwareinstallation für Solaris OS behandelt.

Fehlende Schritte für die Vorbereitung der Aktualisierung von Clustern, auf denen die Run Sun Cluster Geographic Edition-Software ausgeführt wird

Wenn Sie einen Cluster aktualisieren, auf dem auch die Sun Cluster Geographic Edition-Software ausgeführt wird, müssen Sie zusätzliche vorbereitende Schritte durchführen, bevor Sie mit der Aktualisierung der Sun Cluster-Software beginnen. Zu diesen Schritten gehört das Herunterfahren der Sun Cluster Geographic Edition-Infrastruktur. Lesen Sie die Verfahren in Kapitel 4, Upgrading the Sun Cluster Geographic Edition Software in Sun Cluster Geographic Edition Installation Guide im Sun Cluster Geographic Edition Installation Guide . In diesen Verfahren wird beschrieben, an welcher Stelle Sie auf das Sun Cluster-Software-Installationshandbuch zurückgreifen müssen, um die Aktualisierung der Sun Cluster-Software durchzuführen.

Sun Cluster Data Services Planning and Administration Guide

In diesem Abschnitt werden Fehler und Auslassungen im Sun Cluster Data Services Planning and Administration Guide for Solaris OS behandelt.

Unterstützung skalierbarer Dienste in nicht globalen Zonen

Unter Resource Type Properties in Sun Cluster Data Services Planning and Administration Guide for Solaris OS fehlt in der Beschreibung der Ressourceneigenschaft Failover eine Anmerkung zur Unterstützung von skalierbaren Diensten in nicht globalen Zonen. Diese Unterstützung ist für Ressourcen gewährleistet, deren Ressourcentypeigenschaft Failover als FALSCH und deren Ressourceneigenschaft Skalierbar als WAHR festgelegt ist. Diese Kombination der Eigenschaften gibt einen skalierbaren Dienst an, der eine SharedAddress-Ressource für den Netzwerklastenausgleich verwendet. In Sun Cluster 3.2 können Sie einen skalierbaren Dienst dieses Typs in einer Ressourcengruppe konfigurieren, die in einer nicht globalen Zone ausgeführt wird. Sie können einen skalierbaren Dienst jedoch nicht für die Ausführung in mehreren nicht globalen Zonen auf demselben Knoten konfigurieren.

Sun Cluster Data Service for MaxDB Guide

In diesem Abschnitt werden Fehler und Auslassungen im Sun Cluster Data Service for MaxDB Guide for Solaris OS behandelt.

Änderungen der Sun Cluster Data Service for MaxDB-Unterstützung in nicht globalen Zonen auf SPARC- und x86-basierten Systemen

Sun Cluster Data Service for MaxDB unterstützt nicht globale Zonen auf SPARC- und x86-basierten Systemen. Für diese Unterstützung sind folgende Änderungen im Sun Cluster Data Service MaxDB Guide notwendig. Die folgenden Schritte können auf einem Cluster ausgeführt werden, der für eine Ausführung in globalen Zonen konfiguriert wurde. Wenn der Cluster in nicht globalen Zonen ausgeführt werden soll, sind manche Schritte möglicherweise nicht erforderlich. Diese Schritte enthalten einen entsprechenden Hinweis.

Sun Cluster Data Service for SAP Guide

In diesem Abschnitt werden Fehler und Auslassungen im Sun Cluster Data Service for SAP Guide for Solaris OS behandelt.

Änderungen der SAP-Unterstützung in nicht globalen Zonen auf SPARC- und x86-basierten Systemen

Sun Cluster Data Service for SAP unterstützt nicht globale Zonen auf SPARC- und x86-basierten Systemen. Für diese Unterstützung sind folgende Änderungen im Sun Cluster Data Service SAP notwendig. Die folgenden Schritte können auf einem Cluster ausgeführt werden, der für eine Ausführung in globalen Zonen konfiguriert wurde. Wenn der Cluster in nicht globalen Zonen ausgeführt werden soll, sind manche Schritte möglicherweise nicht erforderlich. Diese Schritte enthalten einen entpsrechenden Hinweis.

Sun Cluster Data Service for SAP liveCache Guide

In diesem Abschnitt werden Fehler und Auslassungen im Sun Cluster Data Service for SAP liveCache Guide for Solaris OS behandelt.

Änderungen der SAP liveCache-Unterstützung in nicht globalen Zonen auf SPARC- und x86-basierten Systemen

Sun Cluster Data Service for SAP liveCache unterstützt nicht globale Zonen auf SPARC- und x86-basierten Systemen. Für diese Unterstützung sind folgende Änderungen im Sun Cluster Data Service SAP liveCache Guide notwendig. Die folgenden Schritte können auf einem Cluster ausgeführt werden, der für eine Ausführung in globalen Zonen konfiguriert wurde. Wenn der Cluster in nicht globalen Zonen ausgeführt werden soll, sind manche Schritte möglicherweise nicht erforderlich. Diese Schritte enthalten einen entpsrechenden Hinweis.

Sun Cluster Data Service for SAP Web Application Server Guide

In diesem Abschnitt werden Fehler und Auslassungen im Sun Cluster Data Service for SAP Web Application Server Guide for Solaris OS behandelt.

SAP 7.0-Unterstützung für Sun Cluster HA for SAP Web Application Server (6461002)

In SAP 7.0 und NW2004SR1 wird beim Starten einer SAP-Instanz standardmäßig der sapstartsrv-Prozess gestartet. Der sapstartsrv-Prozess wird von Sun Cluster HA for SAP Web Application Server gesteuert. Das heißt, wenn Sun Cluster HA for SAP Web Application Server eine SAP-Instanz beendet oder ein Failover der Instanz durchführt, wird der sapstartsrv-Prozess nicht beendet.

Um zu verhindern, dass der sapstartsrv-Prozess beim Starten einer SAP-Instanz durch Sun Cluster HA for SAP Web Application gestartet wird, müssen Sie das Skript startsap bearbeiten. Zusätzlich müssen Sie die Datei /etc/rc3.d/S90sapinit auf allen Sun Cluster-Knoten in /etc/rc3.d/xxS90sapinit umbenennen.

Änderungen der SAP Web Application Server-Unterstützung in nicht globalen Zonen auf SPARC- und x86-basierten Systemen

Sun Cluster Data Service for SAP Web Application Server unterstützt nicht globale Zonen auf SPARC- und x86-basierten Systemen. Für diese Unterstützung sind folgende Änderungen im Sun Cluster Data Service SAP Web Application Server Guide notwendig. Die folgenden Schritte können auf einem Cluster ausgeführt werden, der für eine Ausführung in globalen Zonen konfiguriert wurde. Wenn der Cluster in nicht globalen Zonen ausgeführt werden soll, sind manche Schritte möglicherweise nicht erforderlich. Diese Schritte enthalten einen entpsrechenden Hinweis.

Einrichten von SAP Web Application Server in nicht globalen Zonen für HASP-Konfiguration (6530281)

Führen Sie folgendes Verfahren durch, um eine HAStoragePlus-Ressource für nicht globale Zonen zu konfigurieren.


Hinweis –

ProcedureSo richten Sie SAP Web Application Server in nicht globalen Zonen für eine HAStoragePlus-Konfiguration ein

  1. Melden Sie sich auf jedem Cluster im Knoten als Superuser bzw. als Benutzer mit der RBAC-Autorisierung solaris.cluster.modify an.

  2. Erstellen Sie die skalierbare Ressourcengruppe, die die HAStoragePlus-Ressource enthält, mit nicht globalen Zonen.


       # clresourcegroup create \
         -p Maximum_primaries=m\
         -p Desired_primaries=n\
        [-n node-zone-list] hasp-resource-group
    
    -p Maximum_primaries=m

    Gibt die maximale Anzahl aktiver Primärknoten für diese Ressourcengruppe an.

    -p Desired_primaries=n

    Gibt die maximale Anzahl aktiver Primärknoten an, auf denen die Ressourcengruppe einen Startversuch durchführen soll.

    -n node-zone-list

    Gibt in der Knotenliste einer HAStoragePlus-Ressourcengruppe die Liste der Knotennamen an:Zonennamen-Paare wie in der Knotenliste der HAStoragePlus -Ressourcengruppe, in denen SAP-Instanzen online gehen können.

    hasp-resource-group

    Gibt den Namen der hinzuzufügenden skalierbaren Ressourcengruppe an. Der Name muss mit einem ASCII-Zeichen beginnen.

  3. Registrieren Sie den Ressourcentyp für die HAStoragePlus-Ressource.


    # clresourcetype register HAStoragePlus
  4. Erstellen Sie die HAStoragePlus-Ressource hasp-resource und legen Sie Einhängepunkte für das SAP-Dateisystem und globale Gerätepfade fest.


     # clresource create -g hasp-resource-group -t SUNW.HAStoragePlus \
        -p GlobalDevicePaths=/dev/global/dsk/d5s2,dsk/d6 \
        -p affinityon=false -p
    FilesystemMountPoints=/sapmnt/JSC,/usr/sap/trans,/usr/sap/JSC hasp-resource
    
    -g hasp-resource-group

    Gibt den Namen der Ressourcengruppe an.

    GlobalDevicePaths

    Enthält die folgenden Werte:

    • Gruppennamen globaler Geräte, z. B. sap-dg, dsk/d5 .

    • Pfade zu globalen Geräten, z. B. /dev/global/dsk/d5s2, /dev/md/sap-dg/dsk/d6.

    FilesystemMountPoints

    Enthält die folgenden Werte:

    • Einhängepunkte für lokale oder Cluster-Dateisysteme, z. B. /local/mirrlogA,/local/mirrlogB,/sapmnt/JSC,/usr/sap/JSC.

    Die HAStoragePlus-Ressource wird erstellt und aktiviert.

  5. Registrieren Sie den Ressourcentyp für die SAP-Anwendung.


    # clresourcetype register resource-type
    
    resource-type

    Gibt den Namen des hinzuzufügenden Ressourcentyps an. Weitere Informationen finden Sie unter Unterstützte Produkte.

  6. Erstellen Sie eine SAP-Ressourcengruppe.


      # clresourcegroup create [-n node-zone-list] -p 
    RG_affinities=++hastorageplus-rg resource-group-1
    
    resource-group-1

    Gibt die Ressourcengruppe der SAP-Dienste an.

  7. Fügen Sie die SAP-Anwendungsressource zu resource-group-1 hinzu und legen Sie eine Abhängigkeit zu hastorageplus-1 fest.


       # clresource create -g resource-group-1 -t SUNW.application \
         [-p "extension-property[{node-specifier}]"=value, ?] \
         -p Resource_dependencies=hastorageplus-1 resource
    
  8. Bringen Sie die Failover-Ressourcengruppe online.


    # clresourcegroup online resource-group-1
    

Handbuch Systemverwaltung

In diesem Abschnitt werden Fehler und Auslassungen im Sun Cluster System Administration Guide for Solaris OS behandelt.

Solaris Volume Manager-Metaset von Knoten im Nicht-Cluster-Modus nehmen

ProcedureSo nehmen Sie ein Solaris Volume Manager-Metaset von Knoten, die im Nicht-Cluster-Modus gestartet wurden

Führen Sie folgendes Verfahren durch, um eine Anwendung zu Testzwecken außerhalb des Clusters auszuführen.

  1. Ermitteln Sie, ob das Quorum-Gerät im Solaris Volume Manager-Metaset verwendet wird und ob das Quorum-Gerät scsi2- oder scsi3-Reservierungen verwendet.


    # clquorum show
    
    1. Wenn das Quorum-Gerät im Solaris Volume Manager-Metaset vorhanden ist, fügen Sie ein neues Quorum-Gerät hinzu, das nicht Bestandteil des Metasets ist und zu einem späteren Zeitpunkt im Nicht-Cluster-Modus gestartet werden soll.


      # clquorum add did
      
    2. Entfernen Sie das alte Quorum-Gerät.


      # clqorum remove did
      
    3. Wenn das Quorum-Gerät eine scsi2-Reservierung verwendet, entfernen Sie die scsi2-Reservierung von dem alten Quorum-Gerät und vergewissern Sie sich, dass keine weiteren scsi2-Reservierungen vorhanden sind.


      # /usr/cluster/lib/sc/pgre -c pgre_scrub -d /dev/did/rdsk/dids2
      # /usr/cluster/lib/sc/pgre -c pgre_inkeys -d /dev/did/rdsk/dids2
      
  2. Entnehmen Sie den Knoten, der im Nicht-Cluster-Modus gestartet werden soll.


    # clresourcegroup evacuate -n targetnode
    
  3. Nehmen Sie alle Ressourcengruppen offline, die HAStorage- oder HAStoragePlus-Ressourcen sowie Geräte oder Dateisysteme enthalten, die von dem Metaset betroffen sind, das später im Nicht-Cluster-Modus gestartet werden soll.


    # clresourcegroup offline resourcegroupname
    
  4. Deaktivieren Sie alle Ressourcen in den offline genommenen Ressourcengruppen.


    # clresource disable resourcename
    
  5. Beenden Sie die Verwaltung der Ressourcengruppe.


    # clresourcegroup unmanage resourcegroupname
    
  6. Nehmen Sie die entsprechende(n) Gerätegruppe(n) offline.


    # cldevicegroup offline devicegroupname
    
  7. Deaktivieren Sie die Gerätegruppe(n).


    # cldevicegroup disable devicegroupname
    
  8. Booten Sie den passiven Knoten im Nicht-Cluster-Modus.


    # reboot -x
    
  9. Überprüfen Sie, ob der Boot-Vorgang auf dem passiven Knoten abgeschlossen wurde, bevor Sie fortfahren.

    • Solaris 9

      Die Eingabeaufforderung wird erst nach Abschluss des Boot-Vorgangs angezeigt. Es ist keine Aktion erforderlich.

    • Solaris 10


      # svcs -x
      
  10. Ermitteln Sie, ob scsi3-Reservierungen auf den Datenträgern in den Metasets enthalten sind. Führen Sie auf allen Datenträgern in den Metasets folgende Befehle aus:


    # /usr/cluster/lib/sc/scsi -c inkeys -d /dev/did/rdsk/dids2
    
  11. Löschen Sie alle vorhandenen scsi3-Reservierungen auf den Datenträgern.


    # /usr/cluster/lib/sc/scsi -c scrub -d /dev/did/rdsk/dids2
    
  12. Fügen Sie dem entnommenen Knoten das Metaset hinzu.


    # metaset -s name -C take -f
    
  13. Hängen Sie das bzw. die Dateisysteme ein, die sich auf dem angegebenen Gerät im Metaset befinden.


    # mount device mountpoint
    
  14. Starten Sie die Anwendungen und führen Sie den gewünschten Test durch. Wenn der Test abgeschlossen ist, beenden Sie die Anwendung.

  15. Starten Sie den Knoten neu und warten Sie, bis der Startvorgang abgeschlossen wurde.


    # reboot
    
  16. Bringen Sie die Gerätegruppe(n) online.


    # cldevicegroup online -e devicegroupname
    
  17. Starten Sie die Ressourcegruppe(n).


    # clresourcegroup online -eM  resourcegroupname 
    

Verwenden der Solaris IP-Filterfunktion mit Sun Cluster

Sun Cluster unterstützt die Solaris IP-Filterfunktion. Es gelten jedoch folgende Einschränkungen:

ProcedureSo richten Sie die Solaris IP-Filterfunktion ein

  1. Bearbeiten Sie in der Datei /etc/iu.ap die öffentlichen NIC-Einträge, sodass in den Einträgen clhbsndr pfil als Modulliste aufgeführt wird.

    pfil muss das letzte Modul in der Liste sein.


    Hinweis –

    Wenn Sie für öffentliche und private Netzwerke denselben Adaptertyp verwenden, wird durch Ihre Änderung an der /etc/iu.ap-Datei pfil an die privaten Netzwerkdatenströme weitergegeben. Das Cluster-Transportmodul entfernt bei der Datenstromerstellung jedoch alle nicht erwünschten Module, sodass pfil aus den privaten Netzwerkströmen entfernt wird.


  2. Um sicherzustellen , das der IP-Filter im Nicht-Cluster-Modus ordnungsgemäß ausgeführt wird, aktualisieren Sie die Datei /etc/ipf/pfil.ap.

    Aktualisierungen der Datei /etc/iu.ap unterscheiden sich hiervon in manchen Punkten. Weitere Informationen finden Sie in der Dokumentation zum IP-Filter.

  3. Starten Sie alle betroffenen Knoten neu.

    Sie können die Knoten nacheinander starten.

  4. Fügen Sie auf allen betroffenen Knoten der Datei /etc/ipf/ipf.conf Filterregeln hinzu. Informationen zur Syntax von IP-Filterregeln finden Sie auf der Manpage ipf(4)

    Beachten Sie beim Hinzufügen von Filterregeln zu Sun Cluster-Knoten folgende Richtlinien und Anforderungen:

    • Sun Cluster führt Failover über Netzwerkadressen von Knoten zu Knoten aus. Beim Failover ist kein besonderes Verfahren und kein Code erforderlich.

    • Sämtliche Filterregeln, die auf IP-Adressen von Ressourcen für logischen Hostnamen und gemeinsam genutzte Adressen verweisen, müssen auf allen Cluster-Knoten identisch sein.

    • Regeln auf einem Standby-Knoten verweisen auf eine nicht vorhandene IP-Adresse. Diese Regel bleibt Bestandteil des aktiven Regelsatzes des IP-Filters und tritt in Kraft, wenn der Knoten die Adresse nach einem Failover erhält.

    • Alle Filterregeln für NICSs in einer IPMP-Gruppe müssen identisch sein. Das heißt, wenn eine Regel schnittstellenspezifisch ist, müssen dieselben Regeln auch für alle übrigen Schnittstellen in derselben IPMP-Gruppe vorhanden sein.

  5. Aktivieren Sie den SMF-Dienst ipfilter.


    # svcadm enable /network/ipfilter:default
    

Data Services Developer's Guide

In diesem Abschnitt werden Fehler und Auslassungen im Sun Cluster Data Services Developer’s Guide for Solaris OS behandelt.

Unterstützung bestimmter skalierbarer Dienste in nicht globalen Zonen

Unter Resource Type Properties in Sun Cluster Data Services Developer’s Guide for Solaris OS fehlt in der Beschreibung der Ressourceneigenschaft Failover eine Anmerkung zur Unterstützung von skalierbaren Diensten in nicht globalen Zonen. Diese Unterstützung ist für Ressourcen gewährleistet, deren Ressourcentypeigenschaft Failover als FALSCH und deren Ressourceneigenschaft Skalierbar als WAHR festgelegt ist. Diese Kombination der Eigenschaften gibt einen skalierbaren Dienst an, der eine SharedAddress-Ressource für den Netzwerklastenausgleich verwendet. In Sun Cluster 3.2 können Sie einen skalierbaren Dienst dieses Typs in einer Ressourcengruppe konfigurieren, die in einer nicht globalen Zone ausgeführt wird. Sie können einen skalierbaren Dienst jedoch nicht für die Ausführung in mehreren nicht globalen Zonen auf demselben Knoten konfigurieren.

Geändertes Verhalten bei Methoden-Timeout

Die Beschreibung der Änderung im Verhalten bei Methoden-Timeouts in Sun Cluster 3.2 fehlt. Wenn ein RGM-Methodenaufruf das Zeitlimit überschreitet, wird der Prozess mit dem Signal SIGABRT beendet und nicht mehr mit dem Signal SIGTERM. Dadurch wird für alle Mitglieder der Prozessgruppe eine Core-Datei erstellt.


Hinweis –

Vermeiden Sie das Erstellen von Datendienstmethoden, bei denen eine neue Prozessgruppe erstellt wird. Wenn für Ihre Datendienstmethode keine neue Prozessgruppe erstellt werden muss, erstellen Sie zusätzlich einen Signal-Handler für die Signale SIGTERM und SIGABRT. Erstellen Sie die Signal-Handler so, dass das Signal SIGTERM bzw. SIGABRT zur untergeordneten Prozessgruppe weitergeleitet wird, bevor der Signal-Handler den übergeordneten Prozess beendet. Dadurch wird die Wahrscheinlichkeit erhöht, dass alle von der Methode erzeugten Prozesse ordnungsgemäß beendet werden.


Ausführung von CRNP nur in globalen Zonen möglich

Kapitel 12, Cluster Reconfiguration Notification Protocol in Sun Cluster Data Services Developer’s Guide for Solaris OS fehlt die Anmerkung, dass unter Solaris 10 OS das Cluster Reconfiguration Notification Protocol (CRNP) nur in globalen Zonen ausgeführt wird.

Anmerkung bezüglich erforderlicher Solaris-Softwaregruppe unklar

Unter Setting Up the Development Environment for Writing a Data Service in Sun Cluster Data Services Developer’s Guide for Solaris OS wird in einem Hinweis angemerkt, dass die Entwicklerdistribution bzw. die Gesamtdistribution der Solaris-Softwaregruppe erforderlich ist. Dieser Hinweis bezieht sich auf die Entwicklungsmaschine. Da der Hinweis auf eine Anmerkung zum Test des Datendienstes in einem Cluster folgt, kann diese Anforderung fälschlicherweise als Anforderung für den Cluster, auf dem der Datendienst ausgeführt wird, verstanden werden.

Quorum Server User's Guide

In diesem Abschnitt werden Fehler und Auslassungen aus dem Sun Cluster Quorum Server User’s Guide behandelt.

Unterstützte Software- und Hardware-Plattformen

Die folgenden Installationsanforderungen und -anweisungen fehlen oder sind unklar:

Manpages

In diesem Abschnitt werden Fehler, Auslassungen sowie hinzugefügte Informationen zu den Sun Cluster-Manpages behandelt.

ccp(1M)

Im folgenden überarbeiteten Abschnitt "Übersicht" sowie im neu hinzugefügten Abschnitt "Optionen" der Manpage ccp(1M) wird die neue Secure Shell-Unterstützung für Cluster Control Panel-(CCP-)-Dienstprogramme beschrieben:

SYNOPSIS


$CLUSTER_HOME/bin/ccp [-s] [-l username] [-p ssh-port] {clustername | nodename}

OPTIONEN

Die folgenden Optionen werden unterstützt:

-l username

Gibt den Benutzernamen für die ssh-Verbindung an. Diese Option wird an das Dienstprogramm cconsole, crlogin oder cssh weitergegeben, wenn das Dienstprogramm von CCP aus gestartet wird. Das Dienstprogramm ctelnet ignoriert diese Option.

Wenn die Option -l nicht angegeben ist, wird der Benutzername, der CCP gestartet hat, übernommen.

-p ssh-port

Gibt die zu verwendende Secure Shell-Portnummer an. Diese Option wird an das Dienstprogramm cssh weitergegeben, wenn das Dienstprogramm von CCP aus gestartet wird. Die Dienstprogramme cconsole, crlogin und ctelnet ignorieren diese Option.

Wenn die Option -p nicht angegeben ist, wird Portnummer 22 für sichere Verbindungen verwendet.

-s

Gibt an, dass anstelle von telnet-Verbindungen Secure Shell-Verbindungen zu Knotenkonsolen verwendet werden. Diese Option wird an das Dienstprogramm cconsole weitergegeben, wenn das Dienstprogramm von CCP aus gestartet wird. Die Dienstprogramme crlogin, cssh und ctelnet ignorieren diese Option.

Wenn die Option -s nicht angegeben ist, verwendet das cconsole-Dienstprogramm telnet-Verbindungen für Konsolenverbindungen.

Um die Option -s zu überschreiben, heben Sie im Menü "Optionen" der grafischen Benutzeroberfläche (GUI) von cconsole die Auswahl des Kontrollkästchens "SSH verwenden" auf.

cconsole(1M), crlogin(1M), cssh(1M) und ctelnet(1M)

Im folgenden überarbeiteten Abschnitt "Übersicht" sowie im neu hinzugefügten Abschnitt "Optionen" der hier zusammengefassten Manpages cconsole, crlogin, cssh und ctelnet wird die neue Secure Shell-Unterstützung für Cluster Control Panel-Dienstprogramme beschrieben:

SYNOPSIS


$CLUSTER_HOME/bin/cconsole [-s] [-l username] [clustername… | nodename…]
$CLUSTER_HOME/bin/crlogin [-l username] [clustername… | nodename…]
$CLUSTER_HOME/bin/cssh [-l username] [-p ssh-port] [clustername… | nodename…]
$CLUSTER_HOME/bin/ctelnet [clustername… | nodename…]

BESCHREIBUNG

cssh

Dieses Dienstprogramm stellt direkte Secure Shell-Verbindungen zu den Cluster-Knoten her.

OPTIONEN

-l username

Gibt den ssh-Benutzernamen für Remote-Verbindungen an. Diese Option ist mit den Befehlen cconsole, crlogin und cssh gültig.

Der Argumentwert wird gespeichert, sodass zu einem späteren Zeitpunkt angegebene Cluster und Knoten denselben Namen beim Verbindungsaufbau verwenden.

Wenn die Option -l nicht angegeben ist, wird der Benutzername, der den Befehl gestartet hat, übernommen.

-p ssh-port

Gibt die zu verwendende Secure Shell-Portnummer an. Diese Option ist mit dem Befehl cssh gültig.

Wenn die Option -p nicht angegeben ist, wird Portnummer 22 für sichere Verbindungen verwendet.

-s

Gibt an, dass anstelle von telnet-Verbindungen Secure Shell-Verbindungen zu Knotenkonsolen verwendet werden. Diese Option ist mit dem Befehl cconsole gültig.

Wenn die Option -s nicht angegeben ist, verwendet das Dienstprogramm telnet-Verbindungen für Konsolenverbindungen.

Um die Option -s von der grafischen Benutzeroberfläche (GUI) des Dienstprogramms cconsole aus zu überschreiben, heben Sie im Menü "Optionen" die Auswahl des Kontrollkästchens "SSH verwenden" auf.

clnode(1CL)

clresource(1CL)

clresourcegroup(1CL)

r_properties(5)

rt_properties(5)

Die Beschreibung der Ressourcentypeigenschaft Failover enthält eine falsche Anmerkung zur Unterstützung skalierbarer Dienste in nicht globalen Zonen in Sun Cluster 3.2. Diese Unterstützung ist für Ressourcen gewährleistet, deren Ressourcentypeigenschaft Failover als FALSCH und deren Ressourceneigenschaft Skalierbar als WAHR festgelegt ist.

serialports(4)

Die folgenden Informationen ergänzen den Abschnitt "Beschreibung" der Manpage serialport(4):

Um Secure Shell-Verbindungen zu Knotenkonsolen zu unterstützen, geben Sie in der Datei /etc/serialports den Namen des Konsolenzugriffsgeräts und die Secure Shell-Portnummer für jeden Knoten an. Wenn Sie die standardmäßige Secure Shell-Konfiguration auf dem Konsolenzugriffsgerät verwenden, geben Sie die Portnummer 22 an.

SUNW.Event(5)

Auf der Manpage SUNW.Event(5) fehlt die Anmerkung, dass unter Solaris 10 OS der Cluster Reconfiguration Notification Protocol (CRNP) ausschließlich in der globalen Zone ausgeführt werden kann.