Dieses Kapitel enthält Planungsinformationen und Richtlinien zum Installieren einer Sun Cluster-Konfiguration.
Folgende Überblicksinformationen befinden sich in diesem Kapitel:
Die folgende Tabelle zeigt, wo die Anweisungen für die verschiedenen Installationsaufgaben für die Sun Cluster-Softwareinstallation zu finden sind und in welcher Reihenfolge Sie die Aufgaben ausführen sollten.
Tabelle 1–1 Informationen zu Sun Cluster-Softwareinstallationsaufgaben
Schritt |
Anweisungen |
---|---|
Konfigurieren der Cluster-Hardware |
Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS Dokumentation, die mit dem Server und den Speichergeräten mitgeliefert wird |
Planen der Cluster-Softwareinstallation | |
Installieren der Softwarepakete. Optional: Installieren und Konfigurieren der Sun StorEdge QFS-Software |
Sun StorEdge QFS and Sun StorEdge SAM-FS Software Installation and Configuration Guide |
Erstellen eines neuen Clusters oder eines neuen Cluster-Knotens | |
Installieren und Konfigurieren der Software Solstice DiskSuiteTM oder Solaris Volume Manager |
Installieren und Konfigurieren der Software Solstice DiskSuite oder Solaris Volume Manager Dokumentation zu Solstice DiskSuite oder Solaris Volume Manager. |
SPARC: Installieren und Konfigurieren der Software VERITAS Volume Manager (VxVM). |
SPARC: Installieren und Konfigurieren der Software VxVM Dokumentation zu VxVM |
Konfigurieren der Cluster-Dateisysteme und anderer Cluster-Komponenten | |
(Optional) SPARC: Installieren und Konfigurieren des Sun Cluster-Moduls für Sun Management Center |
SPARC: Installieren des Sun Cluster-Moduls für Sun Management Center Sun Management Center-Dokumentation. |
Planen, Installieren und Konfigurieren von Ressourcengruppen und Datendiensten |
Sun Cluster Data Services Planning and Administration Guide for Solaris OS |
Entwickeln von benutzerdefinierten Datendiensten | |
Auf Sun Cluster 3.1 8/05-Software aufrüsten. |
Kapitel 5, Aufrüsten der Sun Cluster-Software Installieren und Konfigurieren der Software Solstice DiskSuite oder Solaris Volume Manager oder SPARC: Installieren und Konfigurieren der Software VxVM Datenträger-Manager-Dokumentation |
Dieser Abschnitt enthält Richtlinien zum Planen der Solaris-Softwareinstallation in einer Cluster-Konfiguration. Weitere Informationen zur Solaris-Software finden Sie in der Solaris-Installationsdokumentation.
Sie können die Solaris-Software von einer lokalen CD-ROM oder von einem Netzwerk-Installationsserver mithilfe der JumpStartTM-Installationsmethode installieren. Außerdem bietet die Sun Cluster-Software eine benutzerdefinierte Methode für die Installation des Solaris-Betriebssystems und der Sun Cluster-Software mithilfe der JumpStart-Installationsmethode. Wenn Sie mehrere Cluster-Knoten installieren, ist möglicherweise eine Netzwerkinstallation empfehlenswert.
Weitere Informationen zur JumpStart-Installationsmethode scinstall finden Sie unter So installieren Sie die Solaris- und Sun Cluster-Software (JumpStart) . Weitere Informationen zu den Solaris-Standardinstallationsmethoden finden Sie in der Solaris-Installationsdokumentation.
Die folgenden Solaris-Funktionen werden in einer Sun Cluster-Konfiguration nicht unterstützt:
Die Sun Cluster 3.1 8/05-Software unterstützt keine nichtglobalen Zonen. Sämtliche Sun Cluster-Software und vom Cluster verwaltete Software darf nur in der globalen Zone des Knotens installiert werden. Installieren Sie keine clusterbezogene Software in einer nichtglobalen Zone. Außerdem muss sämtliche clusterbezogene Software so installiert werden, dass die Weitergabe an nichtglobale Zonen, die später auf einem Cluster-Knoten erstellt werden, verhindert wird. Weitere Informationen finden Sie unterAdding a Package to the Global Zone Only in System Administration Guide: Solaris Containers-Resource Management and Solaris Zones.
Solaris-Schnittstellengruppen werden in einer Sun Cluster-Konfiguration nicht unterstützt. Die Solaris-Schnittstellengruppen-Funktion ist bei der Solaris-Softwareinstallation standardmäßig deaktiviert. Aktivieren Sie die Solaris-Schnittstellengruppen nicht erneut. Weitere Informationen zu den Solaris-Schnittstellengruppen finden Sie in der Online-Dokumentation unter ifconfig(1M).
Das automatische Herunterfahren zum Energiesparen wird in Sun Cluster-Konfigurationen nicht unterstützt und sollte nicht aktiviert werden. Weitere Informationen finden Sie in der Online-Dokumentation unter pmconfig(1M) und power.conf(4).
Die Sun Cluster-Software unterstützt keine Extensible Firmware Interface (EFI)-Plattenbeschriftungen.
Die Sun Cluster-Software unterstützt nicht die Filterung mit dem IP-Filter von Solaris. Die Verwendung des Mechanismus STREAMS autopush(1M) durch den IP-Filter von Solaris steht im Konflikt mit der Verwendung des Mechanismus durch die Sun Cluster-Software.
Die Sun Cluster 3.1 8/05-Software erfordert mindestens die Softwaregruppe Solaris-Endbenutzer. Andere Komponenten der Cluster-Konfiguration können jedoch auch eigene Solaris-Softwareanforderungen aufweisen. Berücksichtigen Sie folgende Informationen, wenn Sie entscheiden, welche Solaris-Softwaregruppe Sie installieren.
Prüfen Sie Ihre Server-Dokumentation auf Solaris-Softwareanforderungen. Für Sun EnterpriseTM 10000-Server beispielsweise ist die gesamte Solaris-Softwaregruppe plus OEM-Unterstützung erforderlich.
Wenn Sie beabsichtigen, SCI-PCI-Adapter, die nur für die Verwendung in SPARC-basierten Clustern zur Verfügung stehen, oder die Anwendungsprogrammierschnittstelle (API) für gemeinsam genutzten Remote-Speicher (RSM) (RSMAPI) zu installieren, müssen Sie die RSMAPI-Softwarepakete (SUNWrsm und SUNWrsmo sowie SUNWrsmx und SUNWrsmox bei Solaris 8 bzw. Solaris 9 OS) installieren. Die RSMAPI-Softwarepakete sind nur in manchen Solaris-Softwaregruppen enthalten. Die Solaris-Softwaregruppe Entwickler enthält RSMAPI-Softwarepakete, die Solaris-Softwaregruppe Endbenutzer jedoch nicht.
Wenn die von Ihnen installierte Softwaregruppe die RSMAPI-Softwarepakete nicht enthält, installieren Sie die RSMAPI-Softwarepakete vor dem Installieren der Sun Cluster-Software manuell. Verwenden Sie den Befehlpkgadd(1M), um die Softwarepakete manuell zu installieren. Informationen zur Verwendung von RSMAPI finden Sie in der Online-Dokumentation zu Solaris 8, Abschnitt (3RSM).
Möglicherweise müssen Sie auch andere Solaris-Softwarepakete installieren, die nicht Teil der Solaris-Softwaregruppe Endbenutzer sind. Ein Beispiel wären die Apache HTTP Server-Pakete. Software von Drittherstellern wie ORACLE® erfordert möglicherweise auch zusätzliche Solaris-Softwarepakete. Angaben zu Solaris-Softwareanforderungen finden Sie in der Dokumentation der Dritthersteller.
Sie können die manuelle Installation der Solaris-Softwarepakete umgehen, indem Sie die gesamte Solaris-Softwaregruppe inklusive OEM-Unterstützung installieren.
Fügen Sie diese Informationen dem entsprechenden Arbeitsblatt Lokales Dateisystem-Layout hinzu.
Stellen Sie bei der Installation des Solaris-Betriebssystems sicher, dass Sie die erforderlichen Sun Cluster-Partitionen erstellen und dass alle Partitionen die Mindest-Speicherplatzanforderungen erfüllen.
swap – Der swap-Bereich, der Solaris- und Sun Cluster-Software zugewiesen wird, muss insgesamt mindestens 750 MB betragen. Addieren Sie für optimale Ergebnisse mindestens 512 MB für die Sun Cluster-Software zum erforderlichen Speicher des Solaris-Betriebssystems. Weisen Sie außerdem den swap zu, der von den Anwendungen benötigt wird, die auf dem Cluster-Knoten ausgeführt werden sollen.
Eine weitere swap-Datei sollten Sie nicht auf einem globalen Gerät erstellen. Verwenden Sie nur eine lokale Platte als swap-Gerät für den Knoten.
/globaldevices – Erstellen Sie ein 512-MB-Dateisystem, das vom Dienstprogramm scinstall(1M) für globale Geräte verwendet werden soll.
Datenträger-Manager – Erstellen Sie eine 20-MB-Partition in einem Bereich am Ende der Platte (Bereich 7) für die Verwendung durch den Datenträger-Manager. Wenn Sie im Cluster VERITAS Volume Manager (VxVM) verwenden und die Root-Platte einkapseln möchten, benötigen Sie zwei verfügbare Bereiche für die Verwendung durch VxVM.
Um diese Anforderungen zu erfüllen, müssen Sie eine benutzerdefinierte Partitionierung vornehmen, wenn Sie die interaktive Installation des Solaris-Betriebssystems ausführen.
Weitere Informationen zur Partitionsplanung finden Sie in folgenden Richtlinien:
Wie bei jedem System unter Solaris können Sie die Verzeichnisse root (/), /var, /usr und /opt als eigene Dateisysteme konfigurieren. Sie können aber auch alle Verzeichnisse im Root-Dateisystem (/) einschließen. Im Folgenden wird der Softwareinhalt der Verzeichnisse root (/), /var, /usr und /opt in einer Sun Cluster-Konfiguration beschrieben. Berücksichtigen Sie diese Informationen bei der Planung des Partitionsschemas.
Root (/) – Die Sun Cluster-Software selbst belegt weniger als 40 MB Speicherplatz im Root-Dateisystem (/). Die Software Solstice DiskSuite oder Solaris Volume Manager benötigt weniger als 5 MB und die Software VxVM weniger als 15 MB. Um ausreichenden zusätzlichen Speicherplatz und I-Knoten-Kapazität zu konfigurieren, addieren Sie mindestens 1000 MB zum Speicherplatz, den Sie normalerweise dem Root-Dateisystem (/) zuweisen würden. Dieser Speicherplatz wird für die Erstellung sowohl von blockorientierten Geräten als auch speziellen zeichenorientierten Geräten verwendet, die von Datenträgerverwaltungs-Software verwendet werden. Sie müssen insbesondere dann diesen Zusatzspeicherplatz zuweisen, wenn sich zahlreiche gemeinsam genutzte Platten im Cluster befinden.
/var – Die Sun Cluster-Software belegt während der Installation unerheblich wenig Speicherplatz im /var-Dateisystem. Sie müssen jedoch zusätzlichen Speicherplatz für die Protokolldateien reservieren. Außerdem können auf einem Cluster-Knoten mehr Meldungen protokolliert werden als auf einem typischen Standalone-Server. Weisen Sie deshalb dem /var-Dateisystem mindestens 100 MB zu.
/usr – Die Sun Cluster-Software belegt weniger als 25 MB Speicherplatz im /usr-Dateisystem. Solstice DiskSuite oder Solaris Volume Manager und VxVM benötigen jeweils weniger als 15 MB.
/opt – Die Sun Cluster-Framework-Software belegt weniger als 2 MB im /opt-Dateisystem. Jeder Sun Cluster-Datendienst kann jedoch 1 bis 5 MB verwenden. Die Software Solstice DiskSuite oder Solaris Volume Manager belegt keinen Speicherplatz im /opt-Dateisystem. Die Software VxVM belegt über 40 MB, wenn alle Pakete und Tools installiert werden.
Außerdem wird die meiste Datenbank- und Anwendungssoftware im /opt-Dateisystem installiert.
SPARC: Wenn Sie die Software Sun Management Center zur Cluster-Überwachung verwenden, benötigen Sie weitere 25 MB Speicherplatz auf jedem Knoten, um den Agenten von Sun Management Center und die Sun Cluster-Modulpakete zu unterstützen.
Die Sun Cluster-Software erfordert, dass Sie ein spezielles Dateisystem auf einer der lokalen Platten zur Verwaltung von globalen Geräten reservieren. Dieses Dateisystem wird später als Cluster-Dateisystem eingehängt. Benennen Sie dieses Dateisystem mit dem Standardnamen /globaldevices, der vom Befehl scinstall(1M) erkannt wird.
Der scinstall-Befehl benennt das Dateisystem später in /global/.devices/node@nodeid um, wobei nodeid die Nummer darstellt, die einem Knoten zugewiesen wird, wenn er Cluster-Mitglied wird. Der ursprüngliche Einhängepunkt /globaldevices wird entfernt.
Das /globaldevices-Dateisystem muss ausreichenden Speicherplatz und ausreichende I-Knoten-Kapazität für die Erstellung von blockorientierten Geräten und speziellen zeichenorientierten Geräten aufweisen. Diese Richtlinie ist besonders dann wichtig, wenn sich zahlreiche Platten im Cluster befinden. Eine Dateisystemgröße von 512 MB sollte für die meisten Cluster-Konfigurationen ausreichend sein.
Wenn Sie die Software Solstice DiskSuite oder Solaris Volume Manager verwenden, müssen Sie einen Bereich auf der Root-Platte für die Verwendung bei der Erstellung des Zustands-Datenbankreplikats reservieren. Reservieren Sie hierfür einen spezifischen Bereich auf jeder lokalen Platte. Wenn Sie nur eine lokale Platte in einem Knoten haben, müssen Sie möglicherweise drei Zustands-Datenbankreplikate in demselben Bereich für die Software Solstice DiskSuite oder Solaris Volume Manager erstellen, damit sie ordnungsgemäß funktioniert. Weitere Informationen finden Sie in der Dokumentation zu Solstice DiskSuite oder Solaris Volume Manager.
SPARC: Wenn Sie VERITAS Volume Manager (VxVM) verwenden und die Root-Platte einkapseln möchten, benötigen Sie zwei freie Bereiche, die für VxVM verfügbar sind. Außerdem benötigen Sie zusätzlichen, nicht zugewiesenen freien Speicherplatz am Beginn oder Ende der Platte. Informationen zum Einkapseln der Root-Platte finden Sie in der Dokumentation zu VxVM.
Tabelle 1–2 zeigt ein Partitionsschema für einen Cluster-Knoten mit weniger als 7500 MB realem Speicher. Dieses Schema soll mit der Solaris-Softwaregruppe Endbenutzer, der Sun Cluster-Software und dem Datendienst Sun Cluster HA für NFS installiert werden. Der letzte Bereich auf der Platte, Bereich 7, wird mit einem kleinen Speicherplatz den Datenträger-Managern zugewiesen.
Dieses Layout ermöglicht die Verwendung der Software Solstice DiskSuite oder Solaris Volume Manager oder VxVM. Bei Verwendung der Software Solstice DiskSuite oder Solaris Volume Manager verwenden Sie Bereich 7 für das Zustands-Datenbankreplikat. Wenn Sie VxVM verwenden, machen Sie Bereich 7 später wieder frei, indem Sie ihm eine Null-Länge zuweisen. Dieses Layout sorgt für die erforderlichen beiden freien Bereiche, 4 und 7, und nicht verwendeten Speicherplatz am Ende der Platte.
Tabelle 1–2 Beispiel Dateisystemzuweisung
Bereich |
Inhalt |
Größenzuweisung |
Beschreibung |
---|---|---|---|
0 |
/ |
6,75 GB |
Restlicher freier Speicherplatz auf der Platte nach Zuweisung von Speicherplatz zu den Bereichen 1 bis 7. Wird für das Solaris-Betriebssystem, die Sun Cluster-Software, die Datendienste-Software, die Datenträger-Manager-Software, den Agenten von Sun Management Center und die Sun Cluster-Modulagentenpakete, die Root-Dateisysteme und die Datenbank- und Anwendungssoftware verwendet. |
1 |
swap |
1 GB |
512 MB für das Solaris-Betriebssystem. 512 MB für Sun Cluster-Software. |
2 |
Overlap |
8,43 GB |
Die gesamte Platte. |
3 |
/globaldevices |
512 MB |
Die Sun Cluster-Software weist diesen Bereich später einem anderen Einhängepunkt zu und hängt den Bereich als Cluster-Dateisystem ein. |
4 |
Nicht benutzt |
- |
Ist als freier Bereich zum Einkapseln der Root-Platte unter VxVM verfügbar. |
5 |
Nicht benutzt |
- |
- |
6 |
Nicht benutzt |
- |
- |
7 |
Datenträger-Manager |
20 MB |
Wird von der Software Solstice DiskSuite oder Solaris Volume Manager für das Zustands-Datenbankreplikat oder von VxVM für die Installation nach dem Freimachen dieses Bereichs verwendet. |
Dieser Abschnitt enthält Richtlinien für das Planen und Vorbereiten der folgenden Komponenten für die Installation und Konfiguration der Sun Cluster-Software:
Detaillierte Informationen zu den Sun Cluster-Komponenten finden Sie im Sun Cluster Überblick für das Betriebssystem Solaris und im Sun Cluster Konzepthandbuch für Solaris OS.
Halten Sie alle erforderlichen Lizenzzertifikate bereit, bevor Sie mit der Softwareinstallation beginnen. Die Sun Cluster-Software erfordert kein Lizenzzertifikat, doch alle mit der Sun Cluster-Software installierten Knoten müssen von Ihrem Sun Cluster-Software-Lizenzvertrag gedeckt werden.
Informationen zu den Lizenzanforderungen der Datenträger-Manager- und der Anwendungssoftware finden Sie in der Installationsdokumentation dieser Produkte.
Nach der Installation der einzelnen Softwareprodukte müssen Sie auch alle jeweils erforderlichen Korrekturversionen installieren.
Informationen zu den aktuell erforderlichen Korrekturversionen finden Sie unter Korrekturversionen und erforderliche Firmware-Ebenen in Sun Cluster 3.1 8/05 Versionshinweise für Solaris OS oder wenden Sie sich an Ihren Sun-Kundendienst.
Allgemeine Richtlinien und Verfahren für die Anwendung von Korrekturversionen finden Sie in Kapitel 8, Korrekturversionen für Sun Cluster-Software und Firmware in Sun Cluster Handbuch Systemverwaltung für Solaris OS.
Sie müssen je nach Cluster-Konfiguration eine Anzahl von IP-Adressen für verschiedene Sun Cluster-Komponenten konfigurieren. Jeder Knoten in der Cluster-Konfiguration muss mindestens eine öffentliche Netzwerkverbindung mit demselben Satz öffentlicher Teilnetze besitzen.
In der folgenden Tabelle werden die Komponenten aufgeführt, denen IP-Adressen zugewiesen werden müssen. Fügen Sie diese IP-Adressen folgenden Speicherorten hinzu:
Allen verwendeten Benennungsdiensten
Der lokalen Datei /etc/inet/hosts auf jedem Cluster-Knoten, nachdem Sie die Solaris-Software installiert haben
Bei Solaris 10 der lokalen Datei /etc/inet/iphosts auf jedem Cluster-Knoten, nachdem Sie die Solaris-Software installiert haben
Weitere Informationen zum Planen von IP-Adressen finden Sie in System Administration Guide, Volume 3 (Solaris 8) oder System Administration Guide: IP Services (Solaris 9 oder Solaris 10).
Weitere Informationen zu IP-Testadressen zur Unterstützung von IP-Netzwerk-Multipathing finden Sie im IP Network Multipathing Administration Guide.
Sie benötigen Konsolenzugriff auf alle Cluster-Knoten. Wenn Sie die Software Cluster-Steuerbereich auf der Verwaltungskonsole installieren, müssen Sie den Hostnamen des Konsolenzugriffsgeräts angeben, das für die Kommunikation mit den Cluster-Knoten verwendet wird.
Für die Kommunikation zwischen Verwaltungskonsole und Cluster-Knotenkonsolen wird ein Terminal-Konzentrator verwendet.
Ein Sun Enterprise 10000-Server verwendet einen System Service Processor (SSP) anstelle eines Terminal-Konzentrators.
Ein Sun FireTM-Server verwendet einen System-Controller anstelle eines Terminal-Konzentrators.
Informationen zum Konsolenzugriff finden Sie im Sun Cluster Konzepthandbuch für Solaris OS.
Beachten Sie folgende Punkte bei der Planung der logischen Adressen:
Für jede Datendienst-Ressourcengruppe, die eine logische Adresse verwendet, muss ein Hostname für jedes öffentliche Netzwerk angegeben werden, von dem auf die logische Adresse zugegriffen werden kann.
Die IP-Adresse muss sich im selben Teilnetz befinden wie die IP-Testadresse, die von der IP-Netzwerk-Multipathing-Gruppe verwendet wird, die als Host der logischen Adresse fungiert.
Weitere Informationen finden Sie im Sun Cluster Data Services Planning and Administration Guide for Solaris OS. Detaillierte Informationen zu Datendiensten und Ressourcen finden Sie im Sun Cluster Überblick für das Betriebssystem Solaris und im Sun Cluster Konzepthandbuch für Solaris OS.
Öffentliche Netzwerke kommunizieren außerhalb des Clusters. Beachten Sie folgende Punkte bei der Planung der öffentlichen Netzwerkkonfiguration:
Für öffentliche Netzwerke und das private Netzwerk (Cluster Interconnect) müssen getrennte Adapter verwendet werden oder Sie müssen VLAN mit Tags auf mit VLAN mit Tags kompatiblen Adaptern und VLAN-kompatiblen Switches so konfigurieren, dass derselbe Adapter sowohl für das private Intereconnect als auch für das öffentliche Netzwerk verwendet wird.
Sie müssen über mindestens ein öffentliches Netzwerk verfügen, das mit allen Cluster-Knoten verbunden ist.
Sie können so viele zusätzliche Verbindungen zum öffentlichen Netzwerk verwenden, wie Ihre Konfiguration zulässt.
Die Sun Cluster-Software unterstützt IPv4-Adressen im öffentlichen Netzwerk.
Die Sun Cluster-Software unterstützt unter folgenden Bedingungen bzw. Einschränkungen IPv6-Adressen im öffentlichen Netzwerk.
Die Sun Cluster-Software unterstützt keine IPv6-Adressen im öffentlichen Netzwerk, wenn das private Interconnect SCI-Adapter verwendet.
Unter Solaris 9 OS und Solaris 10 OS unterstützt die Sun Cluster-Software IPv6-Adressen für Failover- und Scalable-Datendienste.
Unter Solaris 8 OS unterstützt die Sun Cluster-Software IPv6-Adressen nur für Failover-Datendienste.
Jeder Adapter für das öffentliche Netzwerk muss einer Internet Protocol (IP) Network Multipathing- (IP-Netzwerk-Multipathing-)Gruppe angehören. Weitere Richtlinien finden Sie unter IP-Netzwerk-Multipathing-Gruppen .
Alle Adapter für öffentliche Netzwerke müssen Schnittstellenkarten (NICs) verwenden, die die Zuweisung lokaler MAC-Adressen unterstützen. Die Zuweisung lokaler MAC-Adressen ist eine Anforderung von IP-Netzwerk-Multipathing.
Die Variable local-mac-address? muss bei Ethernet-Adaptern den Standardwert true verwenden. Die Sun Cluster-Software unterstützt nicht den local-mac-address?-Wert false für Ethernet-Adapter. Diese Anforderung ist eine Änderung gegenüber Sun Cluster 3.0, bei der der local-mac-address?-Wert false erforderlich ist.
Während der Sun Cluster-Installation unter Solaris 9 oder Solaris 10 OS konfiguriert das scinstall-Dienstprogramm für jeden Adapter für öffentliche Netzwerke automatisch eine IP-Netzwerk-Multipathing-Einzeladaptergruppe. Wenn Sie diese Sicherungsgruppen nach der Installation ändern möchten, führen Sie die Verfahren unter Administering IPMP (Tasks) in System Administration Guide: IP Services (Solaris 9 oder Solaris 10) durch.
Sun Cluster-Konfigurationen unterstützen nicht die Filterung mit dem Solaris-IP-Filter.
Richtlinien zur Planung von Sicherungsgruppen für Adapter für öffentliche Netzwerke finden Sie unter IP-Netzwerk-Multipathing-Gruppen . Weitere Informationen zu Schnittstellen mit dem öffentlichen Netzwerk finden Sie im Sun Cluster Konzepthandbuch für Solaris OS.
Nehmen Sie diese Planungsinformationen in das Arbeitsblatt Öffentliche Netzwerke auf.
Die Internet Protocol (IP) Network Multipathing-Gruppen bieten als Ersatz der Netzwerkadapter-Failover-Gruppen (NAFO-Gruppen) Überwachung von öffentlichen Netzwerkadaptern und Failover und sind die Grundlage für eine Netzwerkadressressource. Eine Multipathing-Gruppe bietet hohe Verfügbarkeit, wenn die Multipathing-Gruppe mit zwei oder mehr Adaptern konfiguriert ist. Wenn ein Adapter ausfällt, werden alle Adressen des ausgefallenen Adapters auf einen anderen Adapter in der Multipathing-Gruppe umgeleitet. Dadurch halten die Multipathing-Gruppen-Adapter die öffentliche Netzwerkkonnektivität mit dem Teilnetz aufrecht, mit dem die Adapter in der Multipathing-Gruppe verbunden sind.
Im Folgenden werden Umstände beschrieben, bei denen eine manuelle Konfiguration von IP-Netzwerk-Multipathing-Gruppen während der Installation der Sun Cluster-Software erforderlich ist:
Bei Installationen der Sun Cluster-Software unter Solaris 8 OS müssen Sie alle Netzwerkadapter in IP-Netzwerk-Multipathing-Gruppen mit den IP-Testadressen neu konfigurieren.
Wenn Sie SunPlex Installer zur Installation der Sun Cluster-Software unter Solaris 9 oder Solaris 10 OS verwenden, muss möglicherweise ein Teil der Adapter für öffentliche Netzwerke manuell in IP-Netzwerk-Multipathing-Gruppen konfiguriert werden.
Bei Installationen der Sun Cluster-Software unter Solaris 9 oder Solaris 10 OS konfiguriert das scinstall-Dienstprogramm (außer bei Verwendung von SunPlex Installer) alle Adapter für öffentliche Netzwerke als Einzeladapter-IP-Netzwerk-Multipathing-Gruppen.
Beachten Sie folgende Punkte bei der Planung von Multipathing-Gruppen:
Jeder öffentliche Netzwerkadapter muss zu einer Multipathing-Gruppe gehören.
Bei den folgenden Arten von Multipathing-Gruppen müssen Sie eine IP-Testadresse für die einzelnen Adapter in der Gruppe konfigurieren:
Bei Solaris 8 OS ist für alle Multipathing-Gruppen eine IP-Testadresse für jeden Adapter erforderlich.
Bei Solaris 9 oder Solaris 10 OS sind für Multipathing-Gruppen mit mindestens zwei Adaptern IP-Testadressen erforderlich. Wenn eine Multipathing-Gruppe nur einen Adapter enthält, müssen Sie keine IP-Testadresse konfigurieren.
Die IP-Testadressen für alle Adapter in derselben Multipathing-Gruppe müssen zu einem IP-Teilnetz gehören.
Die IP-Testadressen dürfen nicht von normalen Anwendungen verwendet werden, da die IP-Testadressen nicht hoch verfügbar sind.
Die Datei /etc/default/mpathd muss für TRACK_INTERFACES_ONLY_WITH_GROUPS den Wert yes enthalten.
Der Name einer Multipathing-Gruppe unterliegt keinen Anforderungen oder Beschränkungen.
Die meisten Verfahren, Richtlinien und Einschränkungen, die in der Solaris-Dokumentation für IP-Netzwerk-Multipathing angegeben sind, gelten gleichermaßen in Cluster- bzw. Nicht-Cluster-Umgebungen. Ziehen Sie deshalb das entsprechende Solaris-Dokument zurate, um weitere Informationen zu IP-Netzwerk-Multipathing zu erhalten:
Bei Solaris 8 OS lesen Sie unter "Deploying Network Multipathing" im IP Network Multipathing Administration Guide nach.
Bei Solaris 9 OS lesen Sie in Kapitel 28, Administering Network Multipathing (Task) in System Administration Guide: IP Services nach.
Bei Solaris 10 OS lesen Sie in Kapitel 31, Administering IPMP (Tasks) in System Administration Guide: IP Services nach.
Lesen Sie außerdem IPMP-Gruppen in Sun Cluster Überblick für das Betriebssystem Solaris und Sun Cluster Konzepthandbuch für Solaris OS.
Berücksichtigen Sie die folgenden Punkte, wenn Sie Network File System (NFS) in einer Sun Cluster-Konfiguration verwenden möchten.
Kein Sun Cluster-Knoten kann als NFS-Client eines über Sun Cluster HA für NFS exportierten Dateisystems dienen, das auf einem Knoten im selben Cluster unterstützt wird. Ein derartiges übergreifendes Einhängen von Sun Cluster HA für NFS ist nicht zulässig. Verwenden Sie das Cluster-Dateisystem, damit Cluster-Knoten Dateien gemeinsam nutzen können.
Anwendungen, die lokal im Cluster laufen, dürfen Dateien in einem über NFS exportierten Dateisystem nicht sperren. Sonst könnten lokale Sperren (z. B. flock(3UCB) oder fcntl(2)) die Möglichkeit zum Neustarten von Lock Manager ( lockd(1M)) stören. Beim Neustart könnte einem gesperrten lokalen Prozess eine Sperre gewährt werden, die eigentlich einem Remote-Client vorbehalten sein sollte. Das würde ein unvorhersehbares Verhalten verursachen.
Die Sun Cluster-Software unterstützt folgende Optionen des Befehls share_nfs(1M) nicht:
secure
sec=dh
Allerdings unterstützt die Sun Cluster-Software folgende Sicherheitsfunktionen für NFS:
Die Verwendung von sicheren Ports für NFS. Sie aktivieren sichere Ports für NFS durch Hinzufügen des Eintragssatzes nfssrv:nfs_portmon=1 zur Datei /etc/system auf Cluster-Knoten.
Die Verwendung von Kerberos mit NFS. Weitere Informationen finden Sie unter Securing Sun Cluster HA for NFS With Kerberos V5 in Sun Cluster Data Service for NFS Guide for Solaris OS.
Betrachten Sie folgende Diensteinschränkungen für Sun Cluster-Konfigurationen:
Konfigurieren Sie Cluster-Knoten nicht als Router (Gateways). Wenn das System abstürzt, finden die Clients keinen alternativen Router und können nicht wieder hergestellt werden.
Konfigurieren Sie Cluster-Knoten nicht als NIS- oder NIS+-Server. Für NIS oder NIS+ ist kein Datendienst verfügbar. Cluster-Knoten können jedoch NIS oder NIS+-Clients sein.
Verwenden Sie keine Sun Cluster-Konfiguration, um einen hoch verfügbaren Start- oder Installationsdienst auf Client-Systemen einzurichten.
Verwenden Sie keine Sun Cluster-Konfiguration zur Bereitstellung eines rarpd-Dienstes.
Wenn Sie einen RPC-Dienst auf dem Cluter installieren, darf der Dienst keine der folgenden Programmnummern verwenden:
100141
100142
100248
Diese Nummern sind den Sun Cluster-Dämonen rgmd_receptionist, fed und pmfd vorbehalten.
Wenn der von Ihnen installierte RPC-Dienst ebenfalls eine dieser Programmnummern verwendet, müssen Sie ihn dahingehend ändern, dass er eine andere Programmnummer verwendet.
Die Sun Cluster-Software unterstützt nicht die Ausführung von Zeitplanklassen für Prozesse mit hoher Priorität auf Cluster-Knoten. Führen Sie keinen der folgenden beiden Prozesstypen auf Cluster-Knoten aus:
Prozesse, die in der Time-Sharing-Zeitplanklasse mit hoher Priorität ausgeführt werden
Prozesse, die in der Echtzeit-Zeitplanklasse ausgeführt werden
Die Sun Cluster-Software beruht auf Kernel-Threads, die in der Echtzeit-Planungsklasse nicht ausgeführt werden können. Time-Sharing-Prozesse, die mit einer höheren als der normalen Priorität ausgeführt werden, oder Echtzeitprozesse können verhindern, dass die Sun Cluster-Kernel-Threads erforderliche CPU-Zyklen erhalten.
Dieser Abschnitt enthält Richtlinien für folgende Sun Cluster-Komponenten, die Sie konfigurieren:
Fügen Sie diese Informationen zum entsprechenden Konfigurationsplanungs-Arbeitsblatt hinzu.
Geben Sie bei der Sun Cluster-Konfiguration einen Namen für den Cluster ein. Der Cluster-Name muss im gesamten Unternehmen einmalig sein.
Der Knotenname ist der Name, den Sie dem Rechner zuweisen, wenn Sie das Solaris-Betriebssystem installieren. Bei der Sun Cluster-Konfiguration geben Sie die Namen aller Knoten an, die Sie als Cluster installieren. Bei Einzelknoten-Cluster-Installationen ist der Standard-Cluster-Name mit dem Knotennamen identisch.
Für einen Ein-Knoten-Cluster müssen Sie kein privates Netzwerk konfigurieren.
Die Sun Cluster-Software verwendet das private Netzwerk für die interne Kommunikation zwischen den Knoten. Eine Sun Cluster-Konfiguration erfordert mindestens zwei Verbindungen mit dem Cluster-Interconnect im privaten Netzwerk. Sie geben die private Netzwerkadresse und Netzmaske an, wenn Sie die Sun Cluster-Software auf dem ersten Knoten des Clusters konfigurieren. Sie können die Standardadresse für das private Netzwerk (172.16.0.0) und die Netzmaske (255.255.0.0) entweder übernehmen oder eine andere Auswahl eingeben.
Sobald das Installationsdienstprogramm (scinstall, SunPlex Installer oder JumpStart) beendet und der Cluster eingerichtet ist, können Sie die private Netzwerkadresse und Netzmaske nicht mehr ändern. Sie müssen die Cluster-Software deinstallieren und anschließend neu installieren, um eine andere private Netzwerkadresse oder Netzmaske zu verwenden.
Wenn Sie statt der Standardadresse eine andere private Netzwerkadresse angeben, muss diese folgende Anforderungen erfüllen:
Die letzten beiden Oktette der Adresse müssen Nullen sein, da die Standardadresse 172.16.0.0 lautet. Die Sun Cluster-Software benötigt die letzten 16 Bit des Adressplatzes zur eigenen Verwendung.
Die Adressen müssen in dem Adressblock enthalten sein, den RFC 1918 für die Verwendung in privaten Netzwerken reserviert. Wenden Sie sich an InterNIC, um Kopien der RFCs zu erhalten, oder zeigen Sie die RFCs online unter http://www.rfcs.org an.
Sie können dieselbe private Netzwerkadresse in mehreren Clustern verwenden. Auf private IP-Netzwerkadressen kann von außerhalb des Clusters aus nicht zugegriffen werden.
Die Sun Cluster-Software unterstützt keine IPv6-Adressen für das private Interconnect. Das System konfiguriert jedoch IPv6 Adressen auf den Adaptern für das private Netzwerk so, dass sie Scalable-Dienste unterstützen, die IPv6-Adressen verwenden. Allerdings werden diese IPv6-Adressen nicht für die Kommunikation zwischen den Knoten im privaten Netzwerk verwendet.
Mit dem scinstall-Dienstprogramm können Sie zwar eine alternative Netzmaske angeben, das bewährte Verfahren besteht jedoch darin, die Standard-Netzmaske, 255.255.0.0, zu übernehmen. Es besteht kein Vorteil darin, dass Sie eine Netzmaske angeben, die ein größeres Netzwerk repräsentiert. Außerdem akzeptiert das scinstall-Dienstprogramm keine Netzmaske, die ein kleineres Netzwerk repräsentiert.
Weitere Informationen zu privaten Netzwerken finden Sie unter Planning Your TCP/IP Network in System Administration Guide, Volume 3 (Solaris 8) oder Planning Your TCP/IP Network (Tasks) in System Administration Guide: IP Services (Solaris 9 oder Solaris 10).
Der private Hostname ist der Name, der für die Verbindung zwischen den Knoten auf der Schnittstelle des privaten Netzwerks verwendet wird. Private Hostnamen werden bei der Sun Cluster-Konfiguration automatisch erstellt. Diese privaten Hostnamen entsprechen der Benennungskonvention clusternodenodeid -priv, wobei nodeid das Numeral der internen Knoten-ID ist. Bei der Sun Cluster-Konfiguration wird die Knoten-ID-Nummer automatisch jedem Knoten zugeordnet, wenn er Cluster-Mitglied wird. Nachdem der Cluster konfiguriert ist, können Sie private Hostnamen mithilfe des Dienstprogramms scsetup(1M) ändern.
Für einen Ein-Knoten-Cluster müssen Sie keinen Cluster-Interconnect konfigurieren. Wenn Sie jedoch erwarten, einer Ein-Knoten-Cluster-Konfiguration später Knoten hinzuzufügen, möchten Sie den Cluster-Interconnect für zukünftige Verwendung möglicherweise bereits konfigurieren.
Die Cluster-Interconnects stellen Hardware-Bahnen für private Netzwerkkommunikation zwischen Cluster-Knoten bereit. Jeder Interconnect besteht aus einem Kabel, das auf eine der folgenden Arten angeschlossen ist:
Zwischen zwei Transportadaptern,
Zwischen einem Transportadapter und einem Transportverbindungspunkt,
Zwischen zwei Transportverbindungspunkten.
Bei der Sun Cluster-Konfiguration geben Sie für zwei Cluster-Interconnects Konfigurationsinformationen an: Sie können nach der Einrichtung des Clusters mithilfe des Dienstprogramms scsetup(1M) weitere private Netzwerkverbindungen konfigurieren.
Richtlinien zur Cluster-Interconnect-Hardware finden Sie unter Interconnect Requirements and Restrictions in Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS. Allgemeine Informationen zum Cluster-Interconnect finden Sie unter Cluster-Interconnect in Sun Cluster Überblick für das Betriebssystem Solaris und Sun Cluster Konzepthandbuch für Solaris OS.
Geben Sie für die Transportadapter, wie beispielsweise Ports im Netzwerkschnittstellen, die Namen der Transportadapter und den Transporttyp an. Wenn die Konfiguration ein Zwei-Knoten-Cluster ist, geben Sie auch an, ob der Interconnect direkt angeschlossen ist (Adapter zu Adapter) oder einen Transportverbindungspunkt verwendet.
Beachten Sie folgende Richtlinien und Einschränkungen:
IPv6 - Die Sun Cluster unterstützt keine IPv6-Kommunikationen über die privaten Interconnects.
Zuweisung lokaler MAC-Adressen - Alle Adapter für private Netzwerke müssen Netzwerk-Schnittstellenkarten (NICs) verwenden, die die Zuweisung lokaler MAC-Adressen unterstützen. Link-local IPv6-Adressen, die bei Adaptern für private Netzwerke zur Unterstüzung von IPv6-Adressen im öffentlichen Netzwerk erforderlich sind, werden aus den lokalen MAC-Adressen abgeleitet.
Adapter für VLAN mit Tags – Die Sun Cluster-Software unterstützt bei Virtual Local Area Networks (VLANs) mit Tags die gemeinsame Nutzung eines Adapters für das private Interconnect und das öffentliche Netzwerk. Um einen Adapter für VLAN mit Tags für das private Interconnect zu konfigurieren, müssen Sie den Adapternamen und die zugehörige VLAN-ID (VID) in einer der folgenden Weisen angeben:
Geben Sie den üblichen Adapternamen an. Hierbei handelt es sich um den Gerätenamen und die Instanznummer des realen Verbindungspunktes (Physical Point of Attachment, PPA). Beispiel: Der Name von Instanz 2 eines Cassini Gigabit Ethernet-Adapters wäre ce2. Wenn das Dienstprogramm scinstall die Frage ausgibt, ob der Adapter Teil eines gemeinsam genutzten virtuellen LAN ist, antworten Sie mit yes und geben Sie die VID-Nummer des Adapters an.
Geben Sie den Adapter anhand seines virtuellen VLAN-Gerätenamens an. Dieser Name setzt sich aus dem Adapternamen und der Nummer der VLAN-Instanz zusammen. Die Nummer der VLAN-Instanz wird abgeleitet aus der Formel (1000*V)+N, wobei V die VID-Nummer und N der PPA ist.
Beispiel: Für VID 73 auf Adapter ce2 berechnet sich die Nummer der VLAN-Instanz als (1000*73)+2. Der Adaptername wir daher als ce73002 angegeben, um anzuzeigen, dass er Teil eines gemeinsam genutzten virtuellen LAN ist.
Weitere Informationen zu VLAN finden Sie unter Konfigurieren von VLANs im Solaris 9 9/04 Handbuch zur Hardware-Plattform von Sun.
SBus SCI-Adapter – Das SBus Scalable Coherent Interface (SCI) wird nicht als Cluster-Interconnect akzeptiert. Die SCI–PCI-Schnittstelle wird jedoch unterstützt.
Logische Netzwerschnittstellen - Logische Netzwerkschnittstellen sind für die Verwendung durch die Sun Cluster-Software reserviert.
Informationen zu spezifischen Transportadaptern finden Sie in der Online-Dokumentationsfamilie scconf_trans_adap_*(1M).
Bei Verwendung von Transportverbindungspunkten, beispielsweise Netzwerkschalter, geben Sie für jeden Interconnect einen Transportverbindungspunktnamen an. Sie können den Standardnamen switchN verwenden, wobei N eine Nummer ist, die bei der Konfiguration automatisch zugewiesen wird. Sie können aber auch einen anderen Namen erstellen. Eine Ausnahme bildet der Sun Firelink-Adapter, für den der Verbindungspunktname sw-rsm N erforderlich ist. Das Dienstprogramm scinstall verwendet diesen Transportverbindungspunktnamen automatisch, nachdem Sie einen Sun Fire Link-Adapter (wrsmN) angegeben haben.
Geben Sie außerdem den Verbindungspunkt-Port-Namen an oder akzeptieren Sie den Standardnamen. Der standardmäßige Port-Name ist mit der internen Knoten-ID-Nummer des Knotens identisch, der das Adapterende des Kabels aufnimmt. Für bestimmte Adaptertypen, wie SCI-PCI, können Sie jedoch den Standardnamen nicht verwenden.
Cluster mit drei oder mehr Knoten müssen Transportverbindungspunkte verwenden. Direktverbindungen zwischen Cluster-Knoten werden nur bei Zwei-Knoten-Clustern unterstützt.
Auch wenn der Zwei-Knoten-Cluster direkt angeschlossen ist, können Sie einen Transportverbindungspunkt für den Interconnect angeben.
Wenn Sie einen Transportverbindungspunkt angeben, können Sie dem Cluster später einfacher einen weiteren Knoten hinzufügen.
Sun Cluster-Konfigurationen verwenden Quorum-Geräte, um die Daten- und Ressourcenintegrität zu erhalten. Wenn der Cluster vorübergehend die Verbindung mit einem Knoten verliert, verhindert das Quorum-Gerät Amnesiezustände oder Split-Brain-Probleme, wenn der Cluster-Knoten wieder dem Cluster beitreten möchte. Während der Sun Cluster-Installation eines Zwei-Knoten-Clusters konfiguriert das Dienstprogramm scinstall automatisch ein Quorum-Gerät. Das Quorum-Gerät wird aus den verfügbaren gemeinsam genutzen Speicherplatten ausgewählt. Das Dienstprogramm scinstall geht davon aus, dass alle verfügbaren gemeinsam genutzen Speicherplatten als Quorum-Gerät unterstützt werden. Nach der Installation können Sie außerdem weitere Quorum-Geräte konfigurieren, indem Sie das Dienstprogramm scsetup(1M) verwenden.
Für einen Ein-Knoten-Cluster müssen Sie keine Quorum-Geräte konfigurieren.
Wenn zu Ihrer Cluster-Konfiguration gemeinsam genutzte Drittanbieter-Speichergeräte gehören, die nicht als Quorum-Geräte verwendet werden können, müssen Sie das Quorum mit dem Dienstprogramm scsetup manuell konfigurieren.
Beachten Sie folgende Punkte, wenn Sie Quorum-Geräte planen.
Minimum – Ein Zwei-Knoten-Cluster muss mindestens ein Quorum-Gerät enthalten, bei dem es sich um eine gemeinsam genutzte Platte oder ein Network Appliance NAS-Gerät handeln kann. Bei anderen Topologien sind die Quorum-Geräte optional.
Ungerade-Zahl-Regel – Wenn in einem Zwei-Knoten-Cluster oder in einem direkt mit dem Quorum-Gerät verbundenen Cluster-Paar mehrere Quorum-Geräte konfiguriert werden, müssen Sie eine ungerade Anzahl von Quorum-Geräten konfigurieren. Diese Konfiguration stellt sicher, dass die Quorum-Geräte bei einem Ausfall völlig unabhängige Bahnen besitzen.
Verbindung – Sie müssen ein Quorum-Gerät mit mindestens zwei Knoten verbinden.
Weitere Informationen zu Quorum-Geräten finden Sie unter Quorum und Quorum-Geräte in Sun Cluster Konzepthandbuch für Solaris OS und Quorum-Geräte in Sun Cluster Überblick für das Betriebssystem Solaris.
Dieser Abschnitt enthält folgende Richtlinien zum Planen von globalen Geräten und Cluster-Dateisystemen:
Weitere Informationen zu globalen Geräten und Cluster-Dateisystemen finden Sie im Sun Cluster Überblick für das Betriebssystem Solaris und Sun Cluster Konzepthandbuch für Solaris OS.
Die Sun Cluster-Software stellt keine besonderen Anforderungen an das Platten-Layout oder die Dateisystemgröße. Beachten Sie folgende Punkte, wenn Sie das Layout der globalen Geräte und Cluster-Dateisysteme planen.
Spiegeln – Sie müssen alle globalen Geräte spiegeln, damit das globale Gerät als hoch verfügbar betrachtet wird. Sie müssen keine Softwarespiegelung verwenden, wenn das Speichergerät über Hardware-RAID sowie redundante Pfade zur Platte verfügt.
Platten – Erstellen Sie das Layout der Dateisysteme beim Spiegeln so, dass die Dateisysteme Laufwerkgruppen-übergreifend gespiegelt werden.
Verfügbarkeit – Sie müssen ein globales Gerät real an mehrere Knoten im Cluster anschließen, damit es als hoch verfügbar betrachtet wird. Ein globales Gerät mit mehreren realen Anschlüssen kann den Ausfall eines Knotens verkraften. Ein globales Gerät mit nur einem realen Anschluss wird unterstützt, doch auf das globale Gerät kann von anderen Knoten nicht zugegriffen werden, wenn der Knoten mit dem Anschluss ausgefallen ist.
Auslagerungsgeräte - Erstellen Sie auf einem globalen Gerät keine Auslagerungsdateien.
Beachten Sie folgende Punkte bei der Planung von Cluster-Dateisystemen.
Kontingente - Kontingente werden auf Cluster-Dateisystemen nicht unterstützt.
Loopback-Dateisystem (LOFS) - Verwenden Sie nicht das Loopback-Dateisystem (LOFS), wenn beide Bedingungen in der folgenden Liste erfüllt sind.
Sun Cluster HA für NFS wird auf einem hoch verfügbaren lokalen Dateisystem konfiguriert.
Der automountd-Dämon wird ausgeführt.
Wenn beide Bedingungen erfüllt sind, muss LOFS deaktiviert werden, um Switchover-Probleme oder andere Ausfälle zu vermeiden. Wenn nur eine dieser Bedingungen gegeben ist, ist die Aktivierung von LOFS unbedenklich.
Wenn sowohl LOFS als auch der automountd-Dämon bei Ihnen aktiviert sein müssen, schließen Sie alle Dateien aus der Zuordnung für das automatische Einhängen aus, die zum hoch verfügbaren lokalen Dateisystem gehören, das durch Sun Cluster HA für NFS exportiert wird.
Verarbeiten von Abrechnungsprotokolldateien - Platzieren Sie keine Prozessabrechnungs-Protokolldateien auf einem Cluster-Dateisystem oder einem hoch verfügbaren lokalen Dateisystem. Ein Switchover würde durch Schreibvorgänge in die Protokolldatei blockiert, was wiederum zum Stillstand des Knotens führen würde. Verwenden Sie für die Prozessabrechnungs-Protokolldateien nur ein lokales Dateisystem.
Kommunikations-Endpunkte - Das Cluster-Dateisystem unterstützt keine der Dateisystemfunktionen der Solaris-Software, mit denen man einen Kommunikations-Endpunkt in den Namensraum des Dateisystems einfügen kann.
Sie können zwar ein UNIX-Domain-Socket erstellen, dessen Name ein Pfadname zum Cluster-Dateisystem ist. Dieses Socket würde jedoch kein Knoten-Failover überstehen.
Auf keine der FIFOs oder Named Pipes, die Sie in einem Cluster-Dateisystem erstellen, wäre ein globaler Zugriff möglich.
Versuchen Sie daher nicht, den Befehl fattach von einem anderen Knoten aus zu verwenden als dem lokalen Knoten.
Nehmen Sie diese Planungsinformationen in das Arbeitsblatt Plattengerätegruppen- Konfigurationen auf.
Sie müssen alle Datenträger-Manager-Plattengruppen als Sun Cluster-Plattengerätegruppen konfigurieren. Diese Konfiguration ermöglicht, dass ein Sekundärknoten Multihost-Platten hostet, wenn der Primärknoten ausfällt. Beachten Sie folgende Punkte, wenn Sie Plattengerätegruppen planen.
Failover – Sie können Multihost-Platten und ordnungsgemäß konfigurierte Datenträger-Manager-Geräte als Failover-Geräte konfigurieren. Die ordnungsgemäße Konfiguration eines Datenträger-Manager-Geräts schließt Multihost-Platten und die richtige Einrichtung des Datenträger-Managers selbst ein. Diese Konfiguration stellt sicher, dass mehrere Knoten das exportierte Gerät hosten können. Sie können keine Bandlaufwerke, CD-ROMs oder einfach angeschlossene Geräte als Failover-Geräte konfigurieren.
Spiegeln – Sie müssen die Platten spiegeln, um die Daten vor Plattenausfällen zu schützen. Weitere Richtlinien finden Sie unter Richtlinien für das Spiegeln . Anweisungen zum Spiegeln finden Sie unter Installieren und Konfigurieren der Software Solstice DiskSuite oder Solaris Volume Manager oder SPARC: Installieren und Konfigurieren der Software VxVM und in der Datenträger-Manager-Dokumentation.
Weitere Informationen zu Plattengerätegruppen finden Sie unter -Geräte in Sun Cluster Überblick für das Betriebssystem Solaris und Sun Cluster Konzepthandbuch für Solaris OS.
Beachten Sie folgende Punkte bei der Planung der Einhängepunkte für die Cluster-Dateisysteme.
Einhängepunkt-Speicherort – Erstellen Sie Einhängepunkte für die Cluster-Dateisysteme im/global-Verzeichnis, es sei denn, andere Softwareprodukte lassen dies nicht zu. Wenn Sie das /global-Verzeichnis verwenden, können Sie die global verfügbaren Cluster-Dateisysteme einfacher von den lokalen Dateisystemen unterscheiden.
SPARC: VxFS Einhängeanforderung – Bei Verwendung von VERITAS File System (VxFS) sollten Sie ein VxFS-Dateisystem global vom Primärknoten aus ein- und aushängen. Der Primärknoten ist der Knoten, der die Platte unterstützt, auf der sich das VxFS-Dateisystem befindet. Diese Methode stellt sicher, dass das Einhängen und Aushängen erfolgreich sind. Das Einhängen oder Aushängen eines VxFS-Dateisystems von einem Sekundärknoten kann scheitern.
Die folgenden VxFS-Fuktionen werden in einem Sun Cluster 3.1-Cluster-Dateisystem nicht untersützt. In einem lokalen Dateisystem werden Sie jedoch unterstützt.
Quick I/O
Schnappschüsse
Speicher-Checkpoints
VxFS-spezifische Einhängeoptionen:
convosync (O_SYNC konvertieren)
mincache
qlog, delaylog, tmplog
VERITAS Cluster-Datesystem (erfordert die VxVM-Cluster-Funktion & VERITAS Cluster Server)
Cache-Berater können verwendet werden, doch ihre Wirkung kann nur auf dem gegebenen Knoten beobachtet werden.
Alle anderen VxFS in einem Cluster-Dateisystem unterstützten Funktionen und Optionen werden von der Sun Cluster 3.1-Software unterstützt. In der VxFS-Dokumentation finden Sie weitere Einzelheiten zu den VxFS-Optionen, die in einer Cluster-Konfiguration unterstützt werden.
Geschachtelte Einhängepunkte – Im Normalfall sollten Sie die Einhängepunkte für Cluster-Dateisysteme nicht schachteln. Konfigurieren Sie zum Beispiel keine Dateisysteme so, dass das erste in /global/a und das andere in /global/a/b eingehängt wird. Die Missachtung dieser Regel kann zu Problemen bei der Verfügbarkeit und der Boot-Reihenfolge des Knotens führen. Diese Probleme treten auf, wenn der übergeordnete Einhängepunkt nicht vorhanden ist, wenn das System versucht, einen untergeordneten einzuhängen. Die einzige Ausnahme von dieser Regel ist, wenn die Geräte der beiden Dateisysteme dieselbe reale Knotenkonnektivität besitzen. Ein Beispiel sind unterschiedliche Bereiche derselben Platte.
forcedirectio - Die Sun Cluster-Software unterstützt nicht die Ausführung von Binärdateien von Cluster-Dateisystemen, die mithilfe der Einhängeoption forcedirectio eingehängt werden.
Nehmen Sie diese Planungsinformationen in das Arbeitsblatt Plattengerätegruppen- Konfigurationen und das Arbeitsblatt Datenträger-Manager- Konfigurationen auf. Nehmen Sie bei Solstice DiskSuite oder Solaris Volume Manager diese Planungsinformationen auch in das Arbeitsblatt Metageräte (Solstice DiskSuite oder Solaris Volume Manager) auf.
Dieser Abschnitt enthält folgende Richtlinien für die Planung der Datenträgerverwaltung für die Cluster-Konfiguration:
Die Sun Cluster-Software verwendet Datenträger-Manager-Software, um Platten zu Plattengerätegruppen zu gruppieren, die dann als eine Einheit verwaltet werden können. Die Sun Cluster-Software unterstützt die Software Solstice DiskSuite oder Solaris Volume Manager und VERITAS Volume Manager (VxVM), die Sie folgendermaßen installieren oder verwenden.
Tabelle 1–4 Unterstützte Verwendung von Datenträger-Manager mit der Sun Cluster-Software
Datenträger-Manager-Software |
Anforderungen |
---|---|
Solstice DiskSuite oder Solaris Volume Manager |
Sie müssen die Software Solstice DiskSuite oder Solaris Volume Manager auf allen Knoten des Clusters installieren, unabhängig davon, ob Sie auf manchen Knoten VxVM zum Verwalten von Platten verwenden. |
Sie müssen VxVM mit der Cluster-Funktion auf allen Knoten des Clusters installieren und lizenzieren. |
|
SPARC: VxVM ohne die Cluster-Funktion |
Sie müssen VxVM nur auf den Knoten installieren und lizenzieren, die an Speichergeräte angehängt sind, die von VxVM verwaltet werden. |
SPARC: Sowohl Solstice DiskSuite oder Solaris Volume Manager als auch VxVM |
Wenn Sie beide Datenträger-Manager auf demselben Knoten installieren, müssen Sie die Software Solstice DiskSuite oder Solaris Volume Manager verwenden, um die jeweils lokalen Platten eines Knotens zu verwalten. Lokale Platten beinhalten die Root-Platte. Verwenden Sie VxVM, um alle gemeinsam genutzten Platten zu verwalten. |
Anweisungen zur Installation und Konfiguration der Datenträger-Manager-Software finden Sie in der Datenträger-Manager-Dokumentation und unter Installieren und Konfigurieren der Software Solstice DiskSuite oder Solaris Volume Manager oder SPARC: Installieren und Konfigurieren der Software VxVM . Weitere Information zur Datenträgerverwaltung in einer Cluster-Konfiguration finden Sie im Sun Cluster Konzepthandbuch für Solaris OS.
Beachten Sie folgende allgemeine Richtlinien, wenn Sie Platten mit Datenträger-Manager-Software konfigurieren:
Software-RAID –Die Sun Cluster-Software unterstützt nicht Software-RAID 5.
Gespiegelte Multihost-Platten – Sie müssen alle Multihost-Platten Plattenerweiterungseinheiten-übergreifend spiegeln. Informationen zum Spiegeln von Multihost-Platten finden Sie in Richtlinien für das Spiegeln von Multihost-Platten . Sie müssen keine Softwarespiegelung verwenden, wenn das Speichergerät über Hardware-RAID sowie redundante Pfade zum Gerät verfügt.
Gespiegelte Root-Platte – Spiegeln der Root-Platte stellt hohe Verfügbarkeit sicher, ist aber nicht obligatorisch. Richtlinien für die Entscheidung, die Root-Platte zu spiegeln, finden Sie unter Richtlinien für das Spiegeln .
Einmalige Benennung – Sie können über lokale Solstice DiskSuite-Metageräte, lokale Solaris Volume Manager -Datenträger oder VxVM-Datenträger verfügen, die als Geräte verwendet werden, in denen /global/.devices/node@nodeid-Dateisysteme eingehängt werden. Wenn dies der Fall ist, muss der Name jedes lokalen Metageräts oder lokalen Datenträgers, auf dem ein /global/.devices/node@nodeid-Dateisystem eingehängt werden soll, im gesamten Cluster einmalig sein.
Knotenlisten – Um die hohe Verfügbarkeit einer Plattengerätegruppe sicherzustellen, konfigurieren Sie ihre Knotenliste von potenziellen Mastern und ihre Failback-Verfahren identisch mit allen zugeordneten Ressourcengruppen. Oder konfigurieren Sie die Knotenliste der Scalable-Ressourcengruppe, wenn sie mehr Knoten als ihre zugeordnete Plattengerätegruppe verwendet, als Obergruppe der Knotenliste der Plattengerätegruppe. Informationen zu Knotenlisten finden Sie in den Planungsinformationen für Ressourcengruppen im Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Multihost-Platten – Sie müssen sämtliche Geräte, die zur Bildung einer Gerätegruppe dienen, mit allen Knoten verbinden, bzw. an die Knoten anschließen, die in der Knotenliste für die entsprechende Gerätegruppe konfiguriert wurden. Die Software Solstice DiskSuite oder Solaris Volume Manager kann automatisch diese Verbindungen prüfen, wenn einem Plattensatz die Geräte hinzugefügt werden. Konfigurierte VxVM-Plattengruppen sind jedoch keiner bestimmten Knotengruppe zugeordnet.
Hot-Spare-Platten – Sie können Hot-Spare-Platten verwenden, um die Verfügbarkeit zu erhöhen. Hot-Spare-Platten sind jedoch nicht erforderlich.
Informationen zu Platten-Layout-Empfehlungen und weitere Einschränkungen finden Sie in der Datenträger-Manager-Dokumentation.
Beachten Sie folgende Punkte bei der Planung von Konfigurationen mit Solstice DiskSuite oder Solaris Volume Manager:
Lokale Metageräte- oder Datenträger-Namen – Der Name jedes lokalen Solstice DiskSuite-Metageräts oder Solaris Volume Manager-Datenträgers, auf dem ein Dateisystem für globale Geräte, /global/.devices/node@nodeid, eingehängt ist, muss im ganzen Cluster einmalig sein. Der Name darf auch nicht mit dem Geräte-ID-Namen identisch sein.
Doppelverkettungsvermittler – Jeder Plattensatz, der mit genau zwei Plattenverkettungseinheiten konfiguriert und von genau zwei Knoten unterstützt wird, muss für den Plattensatz konfigurierte Solstice DiskSuite oder Solaris Volume Manager-Vermittler aufweisen. Eine Plattenverkettungseinheit besteht aus einem Plattengehäuse, den realen Platten, den Kabeln vom Gehäuse zu dem/n Knoten und den Schnittstellen-Adapterkarten. Beachten Sie folgende Regeln beim Konfigurieren von Doppelverkettungsvermittlern:
Sie müssen jeden Plattensatz mit genau zwei Knoten als Vermittler konfigurieren.
Sie müssen dieselben beiden Knoten für alle Plattensätze verwenden, die Vermittler erfordern. Diese beiden Knoten müssen diese Plattensätze unterstützen.
Vermittler können nicht für Plattensätze konfiguriert werden, welche die Doppelverkettungs- und Zwei-Host-Anforderungen nicht erfüllen.
Weitere Informationen finden Sie in der Online-Dokumentation unter mediator(7D).
/kernel/drv/md.conf-Einstellungen – Alle Solstice DiskSuite-Metageräte oder Solaris 9 Solaris Volume Manager-Datenträger, die von den einzelnen Plattensätzen verwendet werden, werden im Voraus beim Rekonfigurations-Booten erstellt. Diese Rekonfiguration basiert auf den Konfigurationsparametern, die in der Datei /kernel/drv/md.conf vorhanden sind.
In Version Solaris 10 wurde Solaris Volume Manager so verbessert, dass eine dynamische Konfiguration von Datenträgern möglich ist. Sie brauchen nicht mehr die Parameter nmd und md_nsets in der Datei /kernel/drv/md.conf zu bearbeiten. Neue Datenträger werden nach Bedarf neu erstellt.
Sie müssen die Felder nmd and md_nsets wie folgt ändern, damit sie eine Sun Cluster-Konfiguration unter Solaris 8 oder Solaris 9 OS unterstützen:
Alle Cluster-Knoten müssen identische /kernel/drv/md.conf-Dateien aufweisen, unabhängig von der Anzahl von Plattensätzen, die von jedem Knoten bedient werden. Die Nichtbeachtung dieser Richtlinie kann zu schweren Fehlern von Solstice DiskSuite oder Solaris Volume Manager und Datenverlusten führen.
md_nsets – Das Feld md_nsets definiert die Gesamtanzahl an Plattensätzen, die für ein System erstellt werden können, um den Anforderungen des gesamten Clusters gerecht zu werden. Stellen Sie den Wert von md_nsets auf die im Cluster erwartete Anzahl von Plattensätzen plus einem Plattensatz ein. Die Solstice DiskSuite oder Solaris Volume Manager-Software verwendet den zusätzlichen Plattensatz zum Verwalten der privaten Platten auf dem lokalen Host.
Pro Cluster sind maximal 32 Plattensätze zulässig. Die Zahl lässt 31 Plattensätze für die allgemeine Verwendung plus einem Plattensatz für die Privatplattenverwaltung zu. Der Standardwert von md_nsets beträgt 4.
nmd – Das Feld nmd definiert den höchsten vorhergesagten Wert für den Namen eines Metageräts oder Datenträgers, der im Cluster vorhanden sein wird. Beispiel: Wenn der höchste Wert für den Namen eines Metageräts oder Datenträgers in den ersten 15 Plattensätzen 10 lautet, der höchste Wert für den Namen eines Metageräts oder Datenträgers im 16. Plattensatz jedoch 1000 ist, müssen Sie den Wert von nmd mindestens auf 1000 setzen. Außerdem muss der Wert von nmd groß genug sein, um zu gewährleisten, dass für jeden Geräte-ID-Namen genügend Nummern vorhanden sind. Die Zahl muss auch hoch genug sein, um sicherzustellen, dass jeder lokale Metageräte- oder Datenträgername im gesamten Cluster einmalig sein kann.
Der höchste zulässige Wert eines Metageräte- oder Datenträgernamens pro Plattensatz beträgt 8192. Der Standardwert von nmd beträgt 128.
Stellen Sie diese Felder bei der Installation so ein, dass auch zukünftige Erweiterungen des Clusters möglich sind. Das Erhöhen der Werte dieser Felder ist zeitaufwändig, wenn der Cluster schon produktiv ist. Das Ändern der Werte erfordert ein Rekonfigurations-Neubooten jedes Knotens. Das Anheben der Werte im Nachhinein erhöht auch die Möglichkeit von ungeeigneten Speicherplatzzuweisungen im Root-Dateisystem (/), um alle gewünschten Geräte zu erstellen.
Halten Sie gleichzeitig den Wert der Felder nmd und md_nsets so niedrig wie möglich. Für alle möglichen Geräte sind Speicherstrukturen gemäß den Festlegungen in nmd und md_nsets vorhanden, auch wenn Sie diese Geräte nicht erstellt haben. Setzen Sie für eine optimale Leistung die Werte von nmd und md_nsets nur geringfügig höher als die Anzahl von Metageräten oder Datenträgern, die Sie zu verwenden planen.
Weitere Informationen zur Datei md.conf finden Sie unter System and Startup Files im Solstice DiskSuite 4.2.1 Reference Guide (Solaris 8) oder System Files and Startup Files im Solaris Volume Manager Administration Guide (Solaris 9 oder Solaris 10).
Beachten Sie folgende Punkte bei der Planung von Konfigurationen mit VERITAS Volume Manager (VxVM).
Gehäusebasierte Benennung – Wenn Sie die Gehäusebasierte Benennung von Geräten verwenden, sollten Sie sicherstellen, dass einheitliche Gerätenamen für alle Cluster-Knoten verwendet werden, die denselben Speicher gemeinsam nutzen. VxVM koordiniert diese Namen nicht, weshalb der Verwalter sicherstellen muss, dass VxVM denselben Geräten dieselben Namen von unterschiedlichen Knoten zuweist. Die Nichtbeachtung der konsistenten Namenszuweisung beeinträchtigt das korrekte Cluster-Verhalten nicht. Inkonsistente Namen komplizieren jedoch die Cluster-Verwaltung und erhöhen die Wahrscheinlichkeit von Konfigurationsfehlern, die potenziell zu Datenverlusten führen können.
Root-Plattengruppen – Ab VxVM 4.0 ist die Erstellung einer Root-Plattengruppe optional
Eine Root-Plattengruppe kann auf folgenden Platten erstellt werden:
Die Root-Platte, die eingekapselt werden muss.
Eine oder mehrere lokale Nicht-Root-Platten, die Sie einkapseln oder initialisieren können.
Eine Kombination von Root- und Nicht-Root-Platten.
Die Root-Plattengruppe muss lokal im Knoten sein.
Einfache Root-Plattengruppen – Einfache Root-Plattengruppen (rootdg, in einem einzelnen Bereich der Root-Platte erstellt) werden von VxVM in der Sun Cluster-Software nicht als Plattentypen unterstützt. Es handelt sich hierbei um eine allgemeine VxVM-Software-Einschränkung.
Einkapselung – Platten, die eingekapselt werden sollen, müssen zwei freie Plattenbereichs-Tabelleneinträge aufweisen.
Anzahl von Datenträgern – Schätzen Sie bei der Erstellung der Plattengerätegruppe die maximale Anzahl von Datenträgern, die eine Plattengerätegruppe verwenden kann.
Wenn die Anzahl von Datenträgern weniger als 1000 beträgt, können Sie die Standard-Unternummern verwenden.
Wenn die Anzahl von Datenträgern 1000 oder mehr beträgt, müssen Sie sorgfältig planen, wie die Unternummern den Plattengerätegruppen-Datenträgern zugewiesen werden. Die Unternummernzuweisungen dürfen sich in keinen Plattengerätegruppen überlappen.
Dirty Region Logging –> Verwenden von Dirty Region Logging (DRL) senkt die Wiederherstellungszeit nach einem Knotenausfall. Die Verwendung von DRL kann die E/A-Leistung senken.
Dynamic Multipathing (DMP) – Die Verwendung von DMP zur bloßen Verwaltung mehrerer E/A-Pfade pro Knoten zum gemeinsam genutzten Speicher wird nicht unterstützt. Die Verwendung von DMP wird nur in folgenden Konfigurationen unterstützt:
Ein einziger E/A-Pfad pro Knoten zum gemeinsam genutzten Cluster-Speicher.
Eine unterstützte Multipathing-Lösung, wie zum Beispiel Sun Traffic Manager, EMC PowerPath oder Hiatchi HDLM, die mehrere E/A-Pfade pro Knoten zum gemeinsam genutzten Cluster-Speicher verwaltet.
Weitere Informationen finden Sie in der Installationsdokumentation von VxVM.
Die Protokollierung ist für UFS- und VxFS-Cluster-Dateisysteme erforderlich. Diese Anforderung gilt nicht für gemeinsam genutzte QFS-Dateisysteme. Die Sun Cluster-Software unterstützt folgende Möglichkeiten der Dateisystem-Protokollierung:
Solaris UFS-Protokollierung – Weitere Informationen finden Sie in der Online-Dokumentation unter mount_ufs(1M).
Solstice DiskSuite Transaktions-Metageräte-Protokollierung oder Solaris Volume Manager Transaktions-Datenträger-Protokollierung – Weitere Informationen finden Sie in Kapitel 2, Creating DiskSuite Objects in Solstice DiskSuite 4.2.1 User’s Guide oder Transactional Volumes (Overview) in Solaris Volume Manager Administration Guide. Transaktions-Datenträger sind ab der Solaris 10-Version von Solaris Volume Manager nicht mehr gültig.
SPARC: VERITAS File System (VxFS) logging – Weitere Informationen finden Sie in der Online-Dokumentation zu mount_vxfs, die im Lieferumfang der VxFS-Software enthalten ist.
Die folgende Tabelle listet die Dateisystem-Protokollierung auf, die vom jeweiligen Datenträger-Manager unterstützt wird.
Tabelle 1–5 Matrix der unterstützten Dateisystem-Protokollierungen
Beachten Sie folgende Punkte, wenn Sie zwischen Solaris UFS-Protokollierung und Solstice DiskSuite Transaktions-Metageräte-Protokollierung bzw. Solaris Volume Manager Transaktions-Datenträger-Protokollierung für UFS-Cluster-Dateiysteme wählen:
Es ist geplant, Solaris Volume Manager Solaris Volume Manager Transaktions-Datenträger-Protokollierung (früher Solstice DiskSuite Transaktions-Metageräte-Protokollierung) bei einer kommenden Solaris-Version aus dem Solaris-Betriebssystem zu entfernen. Solaris UFS-Protokollierung bietet dieselben Funktionen, aber höhere Leistung bei geringeren Systemverwaltungsanforderungen und -aufwand.
Solaris UFS-Protokollgröße – Solaris UFS-Protokollierung speichert das Protokoll immer unter Verwendung von freiem Speicherplatz im UFS-Dateisystem je nach Größe des Dateisystems.
Bei Dateisystemen unter 1 GB belegt das Protokoll 1 MB.
Bei 1 GB großen oder größeren Dateisystemen belegt das Protokoll 1 MB pro GB des Dateisystems bis zu maximal 64 MB.
Protokoll-Metagerät/Transaktions-Datenträger – Ein Solstice DiskSuite-Transaktions-Metagerät oder ein Solaris Volume Manager-Transaktions-Datenträger unterstützt UFS-Protokollierung. Die Protokollierungs-Gerätekomponente eines Transaktions-Metageräts oder Transaktions-Datenträgers ist ein Metagerät oder ein Datenträger, das Spiegeln und Striping zulässt. Sie können eine Protokollgröße bis zu maximal 1 GB erstellen, obwohl 64 MB für die meisten Dateisysteme ausreichend sind. Die Mindestprotokollgröße beträgt 1 MB.
Dieser Abschnitt bietet folgende Richtlinien für die Planung der Spiegelung der Cluster-Konfiguration:
Das Spiegeln sämtlicher Multihosplatten in einer Sun Cluster-Konfiguration gewährleistet, dass die Konfiguration Ausfälle einzelner Geräte toleriert. Die Sun Cluster-Software erfordert, dass Sie alle Multihost-Platten Erweiterungseinheiten-übergreifend spiegeln. Sie müssen keine Softwarespiegelung verwenden, wenn das Speichergerät über Hardware-RAID sowie redundante Pfade zum Gerät verfügt.
Beachten Sie beim Spiegeln von Multihost-Platten folgende Punkte:
Getrennte Plattenerweiterungseinheiten –Jeder Unterspiegel eines gegebenen Spiegels oder Plex sollte sich auf einer anderen Multihost-Erweiterungseinheit befinden.
Festplattenkapazität – Das Spiegeln verdoppelt die erforderliche Festplattenkapazität.
Dreifach-Spiegelung – Solstice DiskSuite oder Solaris Volume Manager-Software und VERITAS Volume Manager (VxVM) unterstützen Dreifach-Spiegelung. Die Sun Cluster-Software erfordert jedoch nur Zweifach-Spiegelung.
Unterschiedliche Gerätegrößen – Wenn Sie ein Gerät auf ein Gerät mit unterschiedlicher Größe spiegeln, ist die Spiegelungskapazität auf die Kapazität des kleinsten Unterspiegels oder Plex beschränkt.
Weitere Informationen zu Multhost-Platten finden Sie unter Multihost-Plattenspeicher in Sun Cluster Überblick für das Betriebssystem Solaris und Sun Cluster Konzepthandbuch für Solaris OS.
Nehmen Sie diese Planungsinformationen in das Arbeitsblatt Lokales Dateisystem-Layout auf.
Maximale Verfügbarkeit erzielen Sie, wenn Sie root (/), /usr, /var, /opt und swap auf den lokalen Platten spiegeln. Unter VxVM kapseln Sie die Root-Platte ein und spiegeln die generierten Unterplatten. Für die Sun Cluster-Software ist es jedoch nicht erforderlich, dass Sie die Root-Platte spiegeln.
Bevor Sie entscheiden, ob Sie die Root-Platte spiegeln, wägen Sie die Risiken, die Komplexität, die Kosten und den Verwaltungsaufwand der verschiedenen Alternativen ab, die die Root-Platte betreffen. Es gibt keine Spiegelungsstrategie, die für alle Konfigurationen gültig ist. Vielleicht ist es hilfreich, die bevorzugte Lösung Ihres lokalen Sun-Servicevertreters zu kennen, wenn Sie entscheiden, ob Sie die Root-Platte spiegeln sollen.
Anweisungen zum Spiegeln der Root-Platte finden Sie in der Datenträger-Manager-Dokumentation und unter Installieren und Konfigurieren der Software Solstice DiskSuite oder Solaris Volume Manager oder SPARC: Installieren und Konfigurieren der Software VxVM .
Beachten Sie folgende Punkte, wenn Sie entscheiden, ob Sie die Root-Platte spiegeln.
Startdatenträger – Sie können den Spiegel als bootfähige Root-Platte konfigurieren. Sie können dann vom Spiegel booten, wenn der Primär-Startdatenträger ausfällt.
Komplexität – Das Spiegeln der Root-Platte macht die Systemverwaltung komplexer. Durch das Spiegeln der Root-Platte wird auch das Booten im Einzelbenutzermodus komplizierter.
Sicherungen – Unabhängig davon, ob Sie die Root-Platte spiegeln oder nicht, sollten Sie regelmäßig Sicherungskopien des Root erstellen. Das Spiegeln allein schützt nicht vor Verwaltungsfehlern. Nur ein Sicherungsplan ermöglicht Ihnen, Dateien wiederherzustellen, die unbeabsichtigt geändert oder gelöscht wurden.
Quorum-Geräte – Verwenden Sie keine als Quorum-Gerät konfigurierte Platte zum Spiegeln einer Root-Platte.
Quorum – Unter der Software Solstice DiskSuite oder Solaris Volume Manager können Sie bei einem Ausfallszenario mit verloren gegangenem Zustands-Datenbankquorum das System erst neu booten, wenn die Wartung erfolgt ist. Informationen zu Zustands-Datenbanken und Zustands-Datenbankreplikate finden Sie in der Dokumentation zu Solstice DiskSuite oder Solaris Volume Manager.
Getrennte Controller – Höchste Verfügbarkeit wird erreicht, wenn die Root-Platte auf einem getrennten Controller gespiegelt wird.
Sekundäre Root-Platte – Bei einer gespiegelten Root-Platte kann die primäre Root-Platte ausfallen und die Arbeit dennoch auf der (gespiegelten) sekundären Root-Platte fortgesetzt werden. Später kann die primäre Root-Platte, zum Beispiel nach einem Kurzschluss oder vorübergehenden E/A-Fehlern, wieder in Betrieb genommen werden. Die nachfolgenden Boot-Vorgänge werden dann auf der primären Root-Platte durchgeführt, die für den eeprom(1M) boot-device-Parameter angegeben ist. In diesem Fall erfolgen keine manuellen Reparaturarbeiten, doch das Laufwerk beginnt ausreichend gut zu arbeiten, um zu starten. Bei der Solstice DiskSuite oder Solaris Volume Manager-Software erfolgt eine Resynchronisierung. Eine Resynchronisierung erfordert einen manuellen Schritt, wenn das Laufwerk wieder in Betrieb genommen wird.
Wenn Änderungen an Dateien der (gespiegelten) sekundären Root-Platte vorgenommen wurden, sind diese beim Starten der primären Root-Platte nicht vorhanden. Diese Bedingung führt zu einem veralteten Unterspiegel. Änderungen an der Datei /etc/system würden zum Beispiel verloren gehen. Bei der Solstice DiskSuite oder Solaris Volume Manager-Software können manche Verwaltungsbefehle die Datei /etc/system geändert haben, während die primäre Root-Platte außer Betrieb war.
Das Boot-Programm prüft nicht, ob das System von einem Spiegel oder vom zugrunde liegenden realen Gerät bootet. Wenn die Metageräte oder Datenträger geladen sind, wird die Spiegelung durch den Boot-Prozess eine aktive Bahn. Daher ist das System bis zu diesem Punkt für Probleme aufgrund veralteter Unterspiegel anfällig.