Dieses Kapitel enthält Planungsinformationen und Richtlinien zum Installieren einer Sun Cluster-Konfiguration.
Dieses Kapitel enthält folgende Informationen im Überblick:
Die folgende Tabelle zeigt, wo die Anweisungen für die verschiedenen Installationsaufgaben für die Sun Cluster-Softwareinstallation zu finden sind und in welcher Reihenfolge Sie die Aufgaben ausführen sollten.
Tabelle 1–1 Informationen zu Sun Cluster-Softwareinstallationsaufgaben
Schritt |
Anweisungen |
---|---|
Konfigurieren der Cluster-Hardware |
|
Planen der Cluster-Softwareinstallation | |
Installieren eines neuen Clusters oder Hinzufügen von Knoten zu einem vorhandenen Cluster | |
Installieren und Konfigurieren der Software Solstice DiskSuiteTM/Solaris Volume Manager |
|
SPARC: Installieren und Konfigurieren der Software VERITAS Volume Manager (VxVM). |
|
Konfigurieren der Cluster-Framework-Software und optionales Installieren und Konfigurieren des Sun Cluster-Moduls auf Sun Management Center (nur auf SPARC-basierten Systemen verfügbar). | |
Planen, Installieren und Konfigurieren von Ressourcengruppen und Datendiensten |
Sun Cluster Data Services Planning and Administration Guide for Solaris OS |
Entwickeln von benutzerdefinierten Datendiensten | |
Rüsten Sie auf die Sun Cluster 3.1 4/04-Software auf. |
|
Dieser Abschnitt enthält Richtlinien zum Planen der Solaris-Softwareinstallation in einer Cluster-Konfiguration. Weitere Informationen zur Solaris-Software finden Sie in der Solaris-Installationsdokumentation.
Sie können die Solaris-Software von einer lokalen CD-ROM oder von einem Netzwerk-Installationsserver mithilfe der JumpStartTM-Installationsmethode installieren. Außerdem bietet die Sun Cluster-Software eine benutzerdefinierte Methode für die Installation der Solaris-Betriebsumgebung und der Sun Cluster-Software mithilfe der JumpStart-Installationsmethode. Wenn Sie mehrere Cluster-Knoten installieren, ist möglicherweise eine Netzwerkinstallation empfehlenswert.
Weitere Informationen zur JumpStart-Installationsmethode scinstall finden Sie in So installieren Sie die Solaris- und Sun Cluster-Software (JumpStart). Weitere Informationen zu den Solaris-Standardinstallationsmethoden finden Sie in der Solaris-Installationsdokumentation.
Folgende Funktionen der Solaris-Betriebsumgebung werden in einer Sun Cluster-Konfiguration nicht unterstützt:
Solaris-Schnittstellengruppen werden in einer Sun Cluster-Konfiguration nicht unterstützt. Die Solaris-Schnittstellengruppen-Funktion wird bei der Solaris-Softwareinstallation standardmäßig deaktiviert. Aktivieren Sie die Solaris-Schnittstellengruppen nicht erneut. Weitere Informationen zu den Solaris-Schnittstellengruppen finden Sie in der Online-Dokumentation unter ifconfig(1M).
Das automatische Herunterfahren zum Energiesparen wird in Sun Cluster-Konfigurationen nicht unterstützt und sollte nicht aktiviert werden. Weitere Informationen finden Sie in der Online-Dokumentation unter pmconfig(1M) und power.conf(4).
Die Sun Cluster 3.1 4/04-Software erfordert mindestens die Softwaregruppe Solaris-Endbenutzer. Andere Komponenten der Cluster-Konfiguration können jedoch auch eigene Solaris-Softwareanforderungen aufweisen. Berücksichtigen Sie folgende Informationen, wenn Sie entscheiden, welche Solaris-Softwaregruppe Sie installieren.
Prüfen Sie Ihre Server-Dokumentation auf Solaris-Softwareanforderungen. Sun Enterprise 10000-Server erfordern zum Beispiel die gesamte Solaris-Softwaregruppe plus OEM-Unterstützung.
Wenn Sie SCI-PCI-Adapter, die nur in SPARC-basierten Clustern zur Verfügung stehen, oder die Remote Shared Memory Application Programming Interface (RSMAPI) verwenden möchten, stellen Sie sicher, dass Sie die RSMAPI-Softwarepakete (SUNWrsm, SUNWrsmx, SUNWrsmo und SUNWrsmox) installieren. Die RSMAPI-Softwarepakete sind nur in manchen Solaris-Softwaregruppen enthalten. Die Solaris-Softwaregruppe Entwickler enthält RSMAPI-Softwarepakete, die Solaris-Softwaregruppe Endbenutzer jedoch nicht.
Wenn die von Ihnen installierte Softwaregruppe die RSMAPI-Softwarepakete nicht enthält, installieren Sie die RSMAPI-Softwarepakete vor dem Installieren der Sun Cluster-Software manuell. Verwenden Sie den Befehl pkgadd(1M), um die Softwarepakete manuell zu installieren. Informationen zur Verwendung von RSMAPI finden Sie in der Online-Dokumentation zu Solaris 8, Abschnitt (3RSM).
Möglicherweise müssen Sie auch andere Solaris-Softwarepakete installieren, die nicht Teil der Solaris-Softwaregruppe Endbenutzer sind. Ein Beispiel wären die Apache HTTP Server-Pakete. Software von Drittherstellern wie ORACLE® erfordert möglicherweise auch zusätzliche Solaris-Softwarepakete. Angaben zu Solaris-Softwareanforderungen finden Sie in der Dokumentation der Dritthersteller.
Sie können die manuelle Installation der Solaris-Softwarepakete umgehen, indem Sie die gesamte Solaris-Softwaregruppe inklusive OEM-Unterstützung installieren.
Fügen Sie dem entsprechenden Arbeitsblatt Lokales Dateisystem-Layout diese Informationen hinzu.
Stellen Sie bei der Installation der Solaris-Betriebsumgebung sicher, dass Sie die erforderlichen Sun Cluster-Partitionen erstellen und dass alle Partitionen die Mindest-Speicherplatzanforderungen erfüllen.
swap – Der swap-Bereich, welcher der Solaris- und Sun Cluster-Software zugewiesen wird, muss insgesamt mindestens 750 MB betragen. Addieren Sie für optimale Ergebnisse mindestens 512 MB für die Sun Cluster-Software zum erforderlichen Speicher der Solaris-Betriebsumgebung. Weisen Sie außerdem den swap zu, der von den Anwendungen benötigt wird, die auf dem Cluster-Knoten ausgeführt werden sollen.
Eine weitere swap-Datei sollten Sie nicht auf einem globalen Gerät erstellen. Verwenden Sie nur eine lokale Platte als swap-Gerät für den Knoten.
/globaldevices – Erstellen Sie ein 512-MB-Dateisystem, das vom Dienstprogramm scinstall(1M) für globale Geräte verwendet werden soll.
Datenträger-Manager – Erstellen Sie eine 20-MB-Partition in einem Bereich am Ende der Platte (Bereich 7) für die Verwendung durch den Datenträger-Manager. Wenn Sie im Cluster VERITAS Volume Manager (VxVM) verwenden und die Root-Platte einkapseln möchten, benötigen Sie zwei verfügbare Bereiche für die Verwendung durch VxVM.
Um diese Anforderungen zu erfüllen, müssen Sie eine benutzerdefinierte Partitionierung vornehmen, wenn Sie die interaktive Installation der Solaris-Betriebsumgebung ausführen.
Weitere Informationen zur Partitionsplanung finden Sie in folgenden Richtlinien:
Wie bei jedem System in der Solaris-Betriebsumgebung können Sie die Verzeichnisse root (/), /var, /usr und /opt als eigene Dateisysteme konfigurieren. Sie können aber auch alle diese Verzeichnisse im Root-Dateisystem (/) einschließen. Im Folgenden wird der Softwareinhalt der Verzeichnisse root (/), /var, /usr und /opt in einer Sun Cluster-Konfiguration beschrieben. Berücksichtigen Sie diese Informationen bei der Planung des Partitionsschemas.
Root (/) – Die Sun Cluster-Software selbst belegt weniger als 40 MB Speicherplatz im Root-Dateisystem (/). Die Software Solstice DiskSuite/Solaris Volume Manager benötigt weniger als 5 MB und die Software VxVM weniger als 15 MB. Um ausreichenden zusätzlichen Speicherplatz und I-Knoten-Kapazität zu konfigurieren, addieren Sie mindestens 100 MB zum Speicherplatz, den Sie normalerweise dem Root-Dateisystem (/) zuweisen würden. Dieser Speicherplatz wird für die Erstellung sowohl von blockorientierten Geräten als auch speziellen zeichenorientierten Geräten verwendet, die von der Software Solstice DiskSuite/Solaris Volume Manager bzw. VxVM verwendet werden. Sie müssen insbesondere dann diesen Zusatzspeicherplatz zuweisen, wenn sich zahlreiche gemeinsam genutzte Platten im Cluster befinden.
/var – Die Sun Cluster-Software belegt während der Installation vernachlässigbar wenig Speicherplatz im /var-Dateisystem. Sie müssen jedoch zusätzlichen Speicherplatz für die Protokolldateien reservieren. Außerdem können auf einem Cluster-Knoten mehr Meldungen protokolliert werden als auf einem typischen Standalone-Server. Weisen Sie deshalb dem /var-Dateisystem mindestens 100 MB zu.
/usr – Die Sun Cluster-Software belegt weniger als 25 MB Speicherplatz im /usr-Dateisystem. Die Software Solstice DiskSuite/Solaris Volume Manager und VxVM benötigen jeweils weniger als 15 MB.
/opt – Die Sun Cluster-Framework-Software belegt weniger als 2 MB im /opt-Dateisystem. Jeder Sun Cluster-Datendienst kann jedoch 1 bis 5 MB verwenden. Die Software Solstice DiskSuite/Solaris Volume Manager belegt keinen Speicherplatz im /opt-Dateisystem. Die Software VxVM belegt über 40 MB, wenn alle Pakete und Tools installiert werden.
Außerdem wird die meiste Datenbank- und Anwendungssoftware im /opt-Dateisystem installiert.
SPARC: Wenn Sie die Software Sun Management Center zur Cluster-Überwachung verwenden, benötigen Sie weitere 25 MB Speicherplatz auf jedem Knoten, um den Agenten von Sun Management Center und die Sun Cluster-Modulpakete zu unterstützen.
Die Sun Cluster-Software erfordert, dass Sie ein spezielles Dateisystem auf einer der lokalen Platten zur Verwaltung von globalen Geräten reservieren. Dieses Dateisystem wird später als Cluster-Dateisystem eingehängt. Benennen Sie dieses Dateisystem mit dem Standardnamen /globaldevices, der vom Befehl scinstall(1M) erkannt wird.
Der scinstall-Befehl benennt das Dateisystem später in /global/.devices/node@Knoten-ID um, wobei Knoten-ID die Nummer darstellt, die einem Knoten zugewiesen wird, wenn er Cluster-Mitglied wird. Der ursprüngliche Einhängepunkt /globaldevices wird entfernt.
Das /globaldevices-Dateisystem muss ausreichenden Speicherplatz und ausreichende I-Knoten-Kapazität für die Erstellung von blockorientierten Geräten und speziellen zeichenorientierten Geräten aufweisen. Diese Richtlinie ist besonders dann wichtig, wenn sich zahlreiche Platten im Cluster befinden. Eine Dateisystemgröße von 512 MB sollte für die meisten Cluster-Konfigurationen ausreichend sein.
Wenn Sie die Software Solstice DiskSuite/Solaris Volume Manager verwenden, müssen Sie einen Bereich auf der Root-Platte für die Verwendung bei der Erstellung des Zustands-Datenbankreplikats reservieren. Reservieren Sie hierfür einen spezifischen Bereich auf jeder lokalen Platte. Wenn Sie nur eine lokale Platte in einem Knoten haben, müssen Sie möglicherweise drei Zustands-Datenbankreplikate in demselben Bereich für die Software Solstice DiskSuite/Solaris Volume Manager erstellen, damit sie ordnungsgemäß funktioniert. Weitere Informationen finden Sie in der Dokumentation zu Solstice DiskSuite/Solaris Volume Manager.
SPARC: Wenn Sie VxVM (VxVM) verwenden und die Root-Platte einkapseln möchten, benötigen Sie zwei freie Bereiche, die für VxVM verfügbar sind. Außerdem benötigen Sie zusätzlichen, nicht zugewiesenen freien Speicherplatz am Beginn oder Ende der Platte. Informationen zum Einkapseln der Root-Platte finden Sie in der Dokumentation zu VxVM.
Tabelle 1–2 zeigt ein Partitionsschema für einen Cluster-Knoten mit weniger als 750 MB realem Speicher. Dieses Schema soll mit der Solaris-Softwaregruppe Endbenutzer der Solaris-Betriebsumgebung, der Sun Cluster-Software und dem Datendienst Sun Cluster HA for NFS installiert werden. Der letzte Bereich auf der Platte, Bereich 7, wird mit einem kleinen Speicherplatz den Datenträger-Managern zugewiesen.
Dieses Layout ermöglicht die Verwendung der Software Solstice DiskSuite/Solaris Volume Manager oder VxVM. Bei Verwendung der Software Solstice DiskSuite/Solaris Volume Manager verwenden Sie Bereich 7 für das Zustands-Datenbankreplikat. Wenn Sie VxVM verwenden, machen Sie Bereich 7 später wieder frei, indem Sie ihm eine Null-Länge zuweisen. Dieses Layout sorgt für die erforderlichen beiden freien Bereiche, 4 und 7, und nicht verwendeten Speicherplatz am Ende der Platte.
Tabelle 1–2 Beispiel Dateisystemzuweisung
Bereich |
Inhalt |
Zuweisung (in MB) |
Beschreibung |
---|---|---|---|
0 |
/ |
6,75 GB |
Restlicher freier Speicherplatz auf der Platte nach Zuweisung von Speicherplatz zu den Bereichen 1 bis 7. Wird für die Solaris-Betriebsumgebungs-Software, die Sun Cluster-Software, die Datendienste-Software, die Datenträger-Manager-Software, den Agenten von Sun Management Center und die Sun Cluster-Modulagentenpakete, die Root-Dateisysteme und die Datenbank- und Anwendungssoftware verwendet. |
1 |
swap |
1 GB |
512 MB für die Solaris-Betriebsumgebungs-Software. 512 MB für Sun Cluster-Software. |
2 |
Overlap |
8,43 GB |
Die gesamte Platte. |
3 |
/globaldevices |
512 MB |
Die Sun Cluster-Software weist diesen Bereich später einem anderen Einhängepunkt zu und hängt den Bereich als Cluster-Dateisystem ein. |
4 |
Nicht benutzt |
- |
Ist als freier Bereich zum Einkapseln der Root-Platte unter VxVM verfügbar. |
5 |
Nicht benutzt |
- |
- |
6 |
Nicht benutzt |
- |
- |
7 |
Datenträger-Manager |
20 MB |
Wird von der Software Solstice DiskSuite/Solaris Volume Manager für das Zustands-Datenbankreplikat oder von VxVM für die Installation nach dem Freimachen dieses Bereichs verwendet. |
Dieser Abschnitt enthält Richtlinien für das Planen und Vorbereiten der folgenden Komponenten für die Installation und Konfiguration der Sun Cluster-Software:
Detaillierte Informationen zu Sun Cluster-Komponenten finden Sie im Sun Cluster Overview for Solaris OS und im Sun Cluster Concepts Guide for Solaris OS.
Halten Sie alle erforderlichen Lizenzzertifikate bereit, bevor Sie mit der Softwareinstallation beginnen. Die Sun Cluster-Software erfordert kein Lizenzzertifikat, doch alle mit der Sun Cluster-Software installierten Knoten müssen von Ihrem Sun Cluster-Software-Lizenzvertrag gedeckt werden.
Informationen zu den Lizenzanforderungen der Datenträger-Manager- und der Anwendungssoftware finden Sie in der Installationsdokumentation dieser Produkte.
Nach der Installation der einzelnen Softwareprodukte müssen Sie auch alle jeweils erforderlichen Korrekturversionen installieren.
Informationen zu den aktuell erforderlichen Korrekturversionen finden Sie in den “Patches and Required Firmware Levels” in Sun Cluster 3.1 4/04 Release Notes for Solaris OS, oder wenden Sie sich an Ihren Sun-Kundendienst.
Allgemeine Richtlinien und Verfahren für die Anwendung von Korrekturversionen finden Sie unter “Patching Sun Cluster Software and Firmware” in Sun Cluster System Administration Guide for Solaris OS.
Sie müssen je nach Cluster-Konfiguration eine Anzahl von IP-Adressen für verschiedene Sun Cluster-Komponenten konfigurieren. Jeder Knoten in der Cluster-Konfiguration muss mindestens eine öffentliche Netzwerkverbindung mit demselben Satz öffentlicher Teilnetze besitzen.
In der folgenden Tabelle werden die Komponenten aufgeführt, denen IP-Adressen zugewiesen werden müssen. Fügen Sie allen verwendeten Benennungsdiensten diese IP-Adressen hinzu. Fügen Sie diese IP-Adressen auch der lokalen Datei /etc/inet/hosts nach der Installation der Solaris-Software auf jedem Cluster-Knoten hinzu.
Weitere Informationen zu IP-Adressen finden Sie im System Administration Guide, Volume 3 (Solaris 8) oder unter System Administration Guide: IP Services (Solaris 9).
Weitere Informationen zu IP-Testadressen zur Unterstützung von IP Network Multipathing finden Sie im IP Network Multipathing Administration Guide.
Komponente |
Anzahl von benötigten IP-Adressen |
---|---|
1 pro Teilnetz |
|
|
|
Cluster-Knoten |
1 pro Knoten, pro Teilnetz |
1 pro Domäne |
|
1 |
|
Logische Adressen |
1 pro logische Host-Ressource, pro Teilnetz |
Sie benötigen Konsolenzugriff auf alle Cluster-Knoten. Wenn Sie die Software Cluster-Steuerbereich auf der Verwaltungskonsole installieren, müssen Sie den Hostnamen des Konsolenzugriffsgeräts angeben, das für die Kommunikation mit den Cluster-Knoten verwendet wird.
Für die Kommunikation zwischen Verwaltungskonsole und Cluster-Knotenkonsolen wird ein Terminal-Konzentrator verwendet.
Ein Sun Enterprise 10000-Server verwendet einen System Service Processor (SSP) anstelle eines Terminal-Konzentrators.
Ein Sun FireTM-Server verwendet einen System-Controller anstelle eines Terminal-Konzentrators.
Informationen zum Konsolenzugriff finden Sie im Sun Cluster Concepts Guide for Solaris OS.
Für jede Datendienst-Ressourcengruppe, die eine logische Adresse verwendet, muss ein Hostname für jedes öffentliche Netzwerk angegeben werden, von dem auf die logische Adresse zugegriffen werden kann.
Weitere Informationen finden Sie im Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Weitere Informationen zu Datendiensten und Ressourcen finden Sie auch unter Sun Cluster Overview for Solaris OS und im Sun Cluster Concepts Guide for Solaris OS.
Öffentliche Netzwerke kommunizieren außerhalb des Clusters. Beachten Sie folgende Punkte bei der Planung der öffentlichen Netzwerkkonfiguration:
Die öffentlichen Netzwerke und das private Netzwerk (Cluster-Interconnect) müssen getrennte Adapter verwenden.
Sie müssen über mindestens ein öffentliches Netzwerk verfügen, das mit allen Cluster-Knoten verbunden ist.
Sie können so viele weitere öffentliche Netzwerkverbindungen besitzen, wie von der Hardware-Konfiguration ermöglicht werden.
Die local-mac-address?-Variable muss den Standardwert true für Ethernet-Adapter verwenden. Die Sun Cluster-Software unterstützt nicht den local-mac-address?-Wert false für Ethernet-Adapter. Diese Anforderung ist eine Änderung gegenüber Sun Cluster 3.0, bei der der local-mac-address?-Wert false erforderlich ist.
Während der Sun Cluster-Installation konfiguriert das scinstall-Dienstprogramm für jeden öffentlichen Netzwerkadapter eine IP Network Multipathing-Einzeladaptergruppe. Wenn Sie diese Sicherungsgruppen nach der Installation ändern möchten, führen Sie die Verfahren unter “Deploying Network Multipathing” im IP Network Multipathing Administration Guide (Solaris 8) oder“Administering Network Multipathing (Task)” in System Administration Guide: IP Services (Solaris 9) aus.
Richtlinien für die Planung von öffentlichen Netzweradapter-Sicherungsgruppen finden Sie unter IP Network Multipathing-Gruppen. Weitere Informationen zu öffentlichen Netzwerkschnittstellen finden Sie im Sun Cluster Concepts Guide for Solaris OS.
Dieser Abschnitt enthält Richtlinien für folgende Sun Cluster-Komponenten, die Sie konfigurieren:
Fügen Sie diese Informationen dem entsprechenden Konfigurations-Arbeitsblatt hinzu.
Tabelle 1–4 Arbeitsblätter für die Sun Cluster-Konfiguration
Geben Sie bei der Sun Cluster-Konfiguration einen Namen für den Cluster ein. Der Cluster-Name muss im gesamten Unternehmen einmalig sein.
Der Knotenname ist der Name, den Sie dem Rechner zuweisen, wenn Sie die Solaris-Betriebsumgebung installieren. Bei der Sun Cluster-Konfiguration geben Sie die Namen aller Knoten an, die Sie als Cluster installieren. Bei Ein-Knoten-Cluster-Installationen ist der Standard-Knotenname mit dem Cluster-Namen identisch.
Für einen Ein-Knoten-Cluster müssen Sie kein privates Netzwerk konfigurieren.
Die Sun Cluster-Software verwendet das private Netzwerk für die interne Kommunikation zwischen den Knoten. Eine Sun Cluster-Konfiguration erfordert mindestens zwei Verbindungen mit dem Cluster-Interconnect im privaten Netzwerk. Sie geben die private Netzwerkadresse und Netzmaske an, wenn Sie die Sun Cluster-Software auf dem ersten Knoten des Clusters konfigurieren. Sie können entweder die standardmäßige private Netzwerkadresse (172.16.0.0) und Netzmaske (255.255.0.0) übernehmen oder andere Eingaben vornehmen, wenn die standardmäßige Netzwerkadresse bereits im Unternehmen verwendet wird.
Sobald das Installationsdienstprogramm (scinstall, SunPlex-Manager oder JumpStart) beendet und der Cluster eingerichtet ist, können Sie die private Netzwerkadresse und Netzmaske nicht mehr ändern. Sie müssen die Cluster-Software deinstallieren und anschließend neu installieren, um eine andere private Netzwerkadresse oder Netzmaske zu verwenden.
Wenn Sie statt der Standardadresse eine andere private Netzwerkadresse angeben, muss diese folgende Anforderungen erfüllen:
Verwenden Sie Nullen für die letzten beiden Oktete der Adresse.
Befolgen Sie die Richtlinien in RFC 1597 für Netzwerkadressen-Zuweisungen.
Sie können sich an InterNIC wenden, um Kopien der RFCs zu erhalten. Anweisungen hierzu finden Sie unter “Planning Your TCP/IP Network” im System Administration Guide, Volume 3 (Solaris 8) oder unter “Planning Your TCP/IP Network (Task)” in System Administration Guide: IP Services (Solaris 9).
Wenn Sie statt der Standard-Netzmaske eine andere Netzmaske angeben, muss sie zumindest alle Bits maskieren, die in der privaten Netzwerkadresse angegeben sind.
Der private Hostname ist der Name, der für die Verbindung zwischen den Knoten auf der Schnittstelle des privaten Netzwerks verwendet wird. Private Hostnamen werden bei der Sun Cluster-Konfiguration automatisch erstellt. Diese privaten Hostnamen entsprechen der Benennungskonvention clusternodeKnoten-ID-priv, wobei Knoten-ID das Numeral der internen Knoten-ID ist. Bei der Sun Cluster-Konfiguration wird die Knoten-ID-Nummer automatisch jedem Knoten zugeordnet, wenn er Cluster-Mitglied wird. Nachdem der Cluster konfiguriert ist, können Sie private Hostnamen mithilfe des Dienstprogramms scsetup(1M) ändern.
Für einen Ein-Knoten-Cluster müssen Sie keinen Cluster-Interconnect konfigurieren. Wenn Sie jedoch erwarten, einer Ein-Knoten-Cluster-Konfiguration später Knoten hinzuzufügen, möchten Sie den Cluster-Interconnect für zukünftige Verwendung möglicherweise bereits konfigurieren.
Die Cluster-Interconnects stellen Hardware-Bahnen für private Netzwerkkommunikation zwischen Cluster-Knoten bereit. Jeder Interconnect besteht aus einem Kabel, das auf eine der folgenden Arten angeschlossen ist:
Zwischen zwei Transportadaptern,
Zwischen einem Transportadapter und einem Transportverbindungspunkt,
Zwischen zwei Transportverbindungspunkten.
Bei der Sun Cluster-Konfiguration geben Sie für zwei Cluster-Interconnects folgende Informationen an:
Transportadapter – Bei Transportadaptern, wie Ports auf Netzwerkschnittstellen, geben Sie die Transportadapternamen und den Transporttyp an. Wenn die Konfiguration ein Zwei-Knoten-Cluster ist, geben Sie auch an, ob der Interconnect direkt angeschlossen ist (Adapter zu Adapter) oder einen Transportverbindungspunkt verwendet. Auch wenn der Zwei-Knoten-Cluster direkt angeschlossen ist, können Sie einen Transportverbindungspunkt für den Interconnect angeben.
Wenn Sie einen Transportverbindungspunkt angeben, können Sie dem Cluster später einfacher einen weiteren Knoten hinzufügen.
Informationen zu spezifischen Transportadaptern finden Sie in der Online-Dokumentationsfamilie scconf_trans_adap_*(1M).
Transportverbindungspunkte – Wenn Sie Transportverbindungspunkte wie zum Beispiel Netzwerkschalter verwenden, geben Sie für jeden Interconnect einen Transportverbindungspunktnamen an. Sie können den Standardnamen switchN verwenden, wobei N eine Nummer ist, die bei der Konfiguration automatisch zugewiesen wird. Sie können aber auch einen anderen Namen erstellen. Eine Ausnahme bildet der Sun Firelink-Adapter, für den der Verbindungspunktname sw-rsmN lauten muss. Das scinstall-Dienstporgramm verwendet diesen Verbindungspunktnamen nach Angabe eines Sun Firelink-Adapters automatisch (wrsmN).
Geben Sie außerdem den Verbindungspunkt-Port-Namen an, oder akzeptieren Sie den Standardnamen. Der standardmäßige Port-Name ist mit der internen Knoten-ID-Nummer des Knotens identisch, der das Adapterende des Kabels aufnimmt. Für bestimmte Adaptertypen, wie SCI-PCI, können Sie jedoch den Standardnamen nicht verwenden.
Cluster mit drei oder mehr Knoten müssen Transportverbindungspunkte verwenden. Direktverbindungen zwischen Cluster-Knoten werden nur bei Zwei-Knoten-Clustern unterstützt.
Sie können nach der Einrichtung des Clusters mithilfe des Dienstprogramms scsetup(1M) weitere private Netzwerkverbindungen konfigurieren.
Weitere Informationen zum Cluster-Interconnect finden Sie unter “Cluster Interconnect” in Sun Cluster Overview for Solaris OS und Sun Cluster Concepts Guide for Solaris OS.
Fügen Sie dem Arbeitsblatt Öffentliche Netzwerke diese Planungsinformationen hinzu.
Die Internet Protocol (IP) Network Multipathing-Gruppen bieten als Ersatz der Netzwerkadapter-Failover-Gruppen (NAFO-Gruppen) Überwachung von öffentlichen Netzwerkadaptern und Failover und sind die Grundlage für eine Netzwerkadressressource. Eine Multipathing-Gruppe bietet hohe Verfügbarkeit, wenn die Multipathing-Gruppe mit zwei oder mehr Adaptern konfiguriert ist. Wenn ein Adapter ausfällt, wechseln alle Adressen des ausgefallenen Adapters auf einen anderen Adapter in der Multipathing-Gruppe über. Dadurch halten die Multipathing-Gruppen-Adapter die öffentliche Netzwerkkonnektivität mit dem Teilnetz aufrecht, mit dem die Adapter in der Multipathing-Gruppe verbunden sind.
Beachten Sie folgende Punkte bei der Planung von Multipathing-Gruppen.
Jeder öffentliche Netzwerkadapter muss zu einer Multipathing-Gruppe gehören.
Bei Multipathing-Gruppen, die zwei oder mehr Adapter enthalten, müssen Sie eine IP-Testadresse für jeden Adapter in der Gruppe konfigurieren. Wenn eine Multipathing-Gruppe nur einen Adapter enthält, müssen Sie keine IP-Testadresse konfigurieren.
Die IP-Testadressen für alle Adapter in derselben Multipathing-Gruppe müssen zu einem IP-Teilnetz gehören.
IP-Testadressen dürfen nicht von normalen Anwendungen verwendet werden, da sie nicht hoch verfügbar sind.
Ändern Sie in der Datei /etc/default/mpathd den Wert von TRACK_INTERFACES_ONLY_WITH_GROUPS nicht von yes auf no.
Der Name einer Multipathing-Gruppe unterliegt keinen Anforderungen oder Beschränkungen.
Weitere Informationen zu IP Network Multipathing finden Sie unter “Deploying Network Multipathing” im IP Network Multipathing Administration Guide (Solaris 8) oder“Administering Network Multipathing (Task)” in System Administration Guide: IP Services (Solaris 9). Weitere Informationen finden Sie auch unter “IP Network Multipathing Groups” in Sun Cluster Overview for Solaris OS und im Sun Cluster Concepts Guide for Solaris OS.
Sun Cluster-Konfigurationen verwenden Quorum-Geräte, um die Daten- und Ressourcenintegrität zu erhalten. Wenn der Cluster vorübergehend die Verbindung mit einem Knoten verliert, verhindert das Quorum-Gerät Amnesiezustände oder Split-Brain-Probleme, wenn der Cluster-Knoten wieder dem Cluster beitreten möchte. Sie Quorum-Geräte mithilfe des Dienstprogramms scsetup(1M) zuweisen.
Für einen Ein-Knoten-Cluster müssen Sie keine Quorum-Geräte konfigurieren.
Beachten Sie folgende Punkte, wenn Sie Quorum-Geräte planen.
Minimum – Einem Zwei-Knoten-Cluster muss mindestens eine gemeinsam genutzte Platte als Quorum-Gerät zugewiesen werden. Bei anderen Topologien sind die Quorum-Geräte optional.
Regel der ungeraden Anzahl – Wenn in einem Zwei-Knoten-Cluster mehrere Quorum-Geräte konfiguriert oder in einem Knotenpaar direkt mit dem Quorum-Gerät verbunden werden, konfigurieren Sie eine ungerade Anzahl von Quorum-Geräten. Diese Konfiguration stellt sicher, dass die Quorum-Geräte komplett unabhängige Bahnen bei Ausfall besitzen.
Verbindung – Sie müssen ein Quorum-Gerät mit mindestens zwei Knoten verbinden.
Weitere Informationen zu Quorum-Geräten finden Sie unter “Quorum Devices” in Sun Cluster Overview for Solaris OS und Sun Cluster Concepts Guide for Solaris OS.
Dieser Abschnitt enthält folgende Richtlinien zum Planen von globalen Geräten und Cluster-Dateisystemen:
Weitere Information zu globalen Geräten und Cluster-Dateisystemen finden Sie unter Sun Cluster Overview for Solaris OS und im Sun Cluster Concepts Guide for Solaris OS.
Die Sun Cluster-Software stellt keine besonderen Anforderungen an das Platten-Layout oder die Dateisystemgröße. Beachten Sie folgende Punkte, wenn Sie das Layout der globalen Geräte und Cluster-Dateisysteme planen.
Spiegeln – Sie müssen alle globalen Geräte spiegeln, damit das globale Gerät als hoch verfügbar betrachtet wird. Sie müssen keine Softwarespiegelung verwenden, wenn das Speichergerät über Hardware-RAID sowie redundante Pfade zur Platte verfügt.
Platten – Erstellen Sie das Layout der Dateisysteme beim Spiegeln so, dass die Dateisysteme Laufwerkgruppen-übergreifend gespiegelt werden.
Verfügbarkeit – Sie müssen ein globales Gerät mit mehreren Knoten im Cluster real verbinden, damit das globale Gerät als hoch verfügbar betrachtet wird. Ein globales Gerät mit mehreren realen Anschlüssen kann den Ausfall eines Knotens verkraften. Ein globales Gerät mit nur einem realen Anschluss wird unterstützt, doch auf das globale Gerät kann von anderen Knoten nicht zugegriffen werden, wenn der Knoten mit dem Anschluss ausgefallen ist.
Auslagerungsgeräte - Erstellen Sie auf einem globalen Gerät keine Auslagerungsdateien.
Fügen Sie dem Arbeitsblatt Plattengerätegruppen-Konfigurationen diese Planungsinformationen hinzu.
Sie müssen alle Datenträger-Manager-Plattengruppen als Sun Cluster-Plattengerätegruppen konfigurieren. Diese Konfiguration ermöglicht, dass ein Sekundärknoten Multihostplatten hostet, wenn der Primärknoten ausfällt. Beachten Sie folgende Punkte, wenn Sie Plattengerätegruppen planen.
Failover – Sie können Multiport-Platten und ordnungsgemäß konfigurierte Datenträger-Manager-Geräte als Failover-Geräte konfigurieren. Die ordnungsgemäße Konfiguration eines Datenträger-Manager-Geräts schließt Multiport-Platten und die richtige Einrichtung des Datenträger-Managers selbst ein. Diese Konfiguration stellt sicher, dass mehrere Knoten das exportierte Gerät hosten können. Sie können keine Bandlaufwerke, CD-ROMs oder einfach angeschlossene Platten als Failover-Geräte konfigurieren.
Spiegeln – Sie müssen die Platten spiegeln, um die Daten vor Plattenausfällen zu schützen. Weitere Richtlinien finden Sie unter Richtlinien für das Spiegeln. Anweisungen zum Spiegeln finden Sie unter Installieren und Konfigurieren der Software Solstice DiskSuite/Solaris Volume Manager oder SPARC: Installieren und Konfigurieren der Software VxVM und der Datenträger-Manager-Dokumentation.
Weitere Informationen zu Plattengerätegruppen finden Sie unter “Devices” in Sun Cluster Overview for Solaris OS und im Sun Cluster Concepts Guide for Solaris OS.
Beachten Sie folgende Punkte bei der Planung der Einhängepunkte für die Cluster-Dateisysteme.
Einhängepunkt-Speicherort – Erstellen Sie Einhängepunkte für die Cluster-Dateisysteme /global-Verzeichnis, außer andere Softwareprodukte lassen dies nicht zu. Wenn Sie das /global-Verzeichnis verwenden, können Sie die global verfügbaren Cluster-Dateisysteme einfacher von den lokalen Dateisystemen unterscheiden.
SPARC: Folgende VxFS-Funktionen werden in einer Sun Cluster 3.1-Konfiguration nicht unterstützt.
Quick I/O
Schnappschüsse
Speicher-Checkpoints
VxFS-spezifische Einhängeoptionen:
convosync (O_SYNC konvertieren)
mincache
qlog, delaylog, tmplog
VERITAS CFS erfordert die VERITAS-Cluster-Funktion & VCS
Cache-Berater können verwendet werden, doch ihre Wirkung kann nur auf dem gegebenen Knoten beobachtet werden.
Alle anderen in einer Cluster-Konfiguration unterstützten VxFS-Funktionen und -Optionen werden von der Sun Cluster 3.1-Software unterstützt. Weitere Informationen zu den VxFS-Optionen, die in einer Cluster-Konfiguration unterstützt werden, finden Sie in der VxFS-Dokumentation.
SPARC: VxFS, Einhängeanforderung – Hängen Sie VxFS-Dateisysteme vom Primärknoten ein und aus, wenn Sie VERITAS File System (VxFS) verwenden. Der Primärknoten ist der Knoten, der die Platte unterstützt, auf der sich das VxFS-Dateisystem befindet. Diese Methode stellt sicher, dass das Einhängen und Aushängen erfolgreich sind. Das Einhängen oder Aushängen eines VxFS-Dateisystems von einem Sekundärknoten kann scheitern.
Geschachtelte Einhängepunkte – Im Normalfall sollten Sie die Einhängepunkte von Cluster-Dateisystemen nicht schachteln. Richten Sie zum Beispiel weder auf /global/a noch auf /global/a/b eingehängte Dateisysteme ein. Die Missachtung dieser Regel kann zu Problemen bei der Verfügbarkeit und der Boot-Reihenfolge des Knotens führen. Diese Probleme treten auf, wenn der übergeordnete Einhängepunkt nicht vorhanden ist, wenn das System versucht, einen untergeordneten einzuhängen. Die einzige Ausnahme von dieser Regel ist, wenn die Geräte der beiden Dateisysteme dieselbe reale Knotenkonnektivität besitzen. Ein Beispiel sind unterschiedliche Bereiche derselben Platte.
Fügen Sie dem Arbeitsblatt Plattengerätegruppen-Konfigurationen und dem Arbeitsblatt Datenträger-Manager-Konfigurationen diese Planungsinformationen hinzu. Fügen Sie bei Solstice DiskSuite/Solaris Volume Manager auch dem Arbeitsblatt Metageräte (Solstice DiskSuite/Solaris Volume Manager) diese Planungsinformationen hinzu.
Dieser Abschnitt enthält folgende Richtlinien für die Planung der Datenträgerverwaltung für die Cluster-Konfiguration:
Die Sun Cluster-Software verwendet Datenträger-Manager-Software, um Platten zu Plattengerätegruppen zu gruppieren, die dann als eine Einheit verwaltet werden können. Die Sun Cluster-Software unterstützt die Software Solstice DiskSuite/Solaris Volume Manager und VERITAS Volume Manager (VxVM), die Sie folgendermaßen installieren oder verwenden.
Tabelle 1–5 Unterstützte Verwendung von Datenträger-Managern mit der Sun Cluster-Software
Datenträger-Manager-Software |
Anforderungen |
---|---|
Solstice DiskSuite/Solaris Volume Manager |
Sie müssen die Software Solstice DiskSuite/Solaris Volume Manager auf allen Knoten des Clusters installieren, unabhängig davon, ob Sie auf manchen Knoten VxVM zum Verwalten von Platten verwenden. |
SPARC: VxVM mit der Cluster-Funktion |
Sie müssen VxVM mit der Cluster-Funktion auf allen Knoten des Clusters installieren und lizenzieren. |
SPARC: VxVM ohne Cluster-Funktion |
Sie müssen VxVM nur auf den Knoten installieren und lizenzieren, die an Speichergeräte angehängt sind, die von VxVM verwaltet werden. |
SPARC: Solstice DiskSuite/Solaris Volume Manager und VxVM |
Wenn Sie beide Datenträger-Manager auf demselben Knoten installieren, müssen Sie die Software Solstice DiskSuite/Solaris Volume Manager verwenden, um die jeweils lokalen Platten eines Knotens zu verwalten. Lokale Platten beinhalten die Root-Platte. Verwenden Sie VxVM, um alle gemeinsam genutzten Platten zu verwalten. |
Anweisungen zur Installation und Konfiguration der Datenträger-Manager-Software finden Sie in der Datenträger-Manager-Dokumentation und unter Installieren und Konfigurieren der Software Solstice DiskSuite/Solaris Volume Manager oder SPARC: Installieren und Konfigurieren der Software VxVM. Weitere Information zur Datenträgerverwaltung in einer Cluster-Konfiguration finden Sie im Sun Cluster Concepts Guide for Solaris OS.
Beachten Sie folgende allgemeine Richtlinien, wenn Sie Platten mit Datenträger-Manager-Software konfigurieren:
Gespiegelte Multihost-Platten – Sie müssen alle Multihost-Platten Plattenerweiterungseinheiten-übergreifend spiegeln. Richtlinien für das Spiegeln von Multihostplatten finden Sie unter Richtlinien für das Spiegeln von Multihostplatten. Sie müssen keine Softwarespiegelung verwenden, wenn das Speichergerät über Hardware-RAID sowie redundante Pfade zur Platte verfügt.
Gespiegelte Root-Platte – Das Spiegeln der Root-Platte stellt hohe Verfügbarkeit sicher, ist aber nicht obligatorisch. Richtlinien für die Entscheidung, die Root-Platte zu spiegeln, finden Sie unter Richtlinien für das Spiegeln.
Einmalige Benennung – Sie können über lokale Solstice DiskSuite-Metageräte, lokale Solaris Volume Manager-Datenträger oder VxVM-Datenträger verfügen, die als Geräte verwendet werden, in denen /global/.devices/node@Knoten-ID-Dateisysteme eingehängt sind. Wenn dies der Fall ist, muss der Name jedes lokalen Metageräts oder lokalen Datenträgers im gesamten Cluster einmalig sein.
Knotenlisten – Um die hohe Verfügbarkeit einer Plattengerätegruppe sicherzustellen, konfigurieren Sie ihre Knotenliste von potenziellen Mastern und ihre Failback-Verfahren identisch mit allen zugeordneten Ressourcengruppen. Oder konfigurieren Sie die Knotenliste der Scalable-Ressourcengruppe, wenn sie mehr Knoten als ihre zugeordnete Plattengerätegruppe verwendet, als Obergruppe der Knotenliste der Plattengerätegruppe. Informationen zu Knotenlisten finden in den Planungsinformationen für Ressourcengruppen im Sun Cluster Data Services Planning and Administration Guide for Solaris OS.
Multiport-Platten – Sie müssen alle Platten, die eine Gerätegruppe im Cluster bilden, mit allen Knoten, die in der Knotenliste dieser Gerätegruppe konfiguriert sind, verbinden oder daran anschließen. Die Software Solstice DiskSuite/Solaris Volume Manager kann automatisch diese Verbindungen prüfen, wenn einem Plattensatz die Platten hinzugefügt werden. Konfigurierte VxVM-Plattengruppen sind jedoch keiner bestimmten Knotengruppe zugeordnet.
Hot-Spare-Platten – Sie können Hot-Spare-Platten verwenden, um die Verfügbarkeit zu erhöhen. Hot-Spare-Platten sind jedoch nicht erforderlich.
Informationen zu Platten-Layout-Empfehlungen und weitere Einschränkungen finden Sie in der Datenträger-Manager-Dokumentation.
Beachten Sie folgende Punkte bei der Planung von Konfigurationen mit Solstice DiskSuite/Solaris Volume Manager:
Lokale Metageräte- oder Datenträger-Namen – Der Name eines Solstice DiskSuite-Metageräts oder Solaris Volume Manager-Datenträgers muss im gesamten Cluster einmalig sein. Der Name darf auch nicht mit dem Geräte-ID-Namen identisch sein.
Doppelverkettungsvermittler – Jeder Plattensatz, der mit genau zwei Plattenverkettungseinheiten konfiguriert und von genau zwei Knoten unterstützt wird, muss für den Plattensatz konfigurierte Solstice DiskSuite/Solaris Volume Manager-Vermittler aufweisen. Eine Plattenverkettungseinheit besteht aus einem Plattengehäuse, den realen Platten, den Kabeln vom Gehäuse zu dem/n Knoten und den Schnittstellen-Adapterkarten. Beachten Sie folgende Regeln beim Konfigurieren von Doppelverkettungsvermittlern:
Sie müssen jeden Plattensatz mit genau zwei Knoten als Vermittler konfigurieren.
Sie müssen dieselben beiden Knoten für alle Plattensätze verwenden, die Vermittler erfordern. Diese beiden Knoten müssen diese Plattensätze unterstützen.
Vermittler können nicht für Plattensätze konfiguriert werden, welche die Doppelverkettungs- und Zwei-Host-Anforderungen nicht erfüllen.
Weitere Informationen finden Sie in der Online-Dokumentation unter mediator(7D) .
/kernel/drv/md.conf Einstellungen – Alle Solstice DiskSuite-Metageräte oder Solaris Volume Manager-Datenträger, die von jedem Plattensatz verwendet werden, werden im Voraus beim Rekonfigurations-Booten erstellt. Diese Rekonfiguration basiert auf den Konfigurationsparametern, die in der Datei /kernel/drv/md.conf vorhanden sind.
Alle Cluster-Knoten müssen identische /kernel/drv/md.conf-Dateien aufweisen, unabhängig von der Anzahl von Plattensätzen, die von jedem Knoten bedient werden. Die Nichtbeachtung dieser Richtlinie kann zu schweren Fehlern von Solstice DiskSuite/Solaris Volume Manager und Datenverlusten führen.
Sie müssen die Felder nmd und md_nsets wie folgt ändern, damit sie eine Sun Cluster-Konfiguration unterstützen:
md_nsets – Das md_nsets-Feld definiert die Gesamtanzahl der Plattensätze, die für ein System erstellt werden können, um die Anforderungen des gesamten Clusters zu erfüllen. Stellen Sie den Wert von md_nsets auf die im Cluster erwartete Anzahl von Plattensätzen plus einem Plattensatz ein. Die Solstice DiskSuite/Solaris Volume Manager-Software verwendet den zusätzlichen Plattensatz zum Verwalten der privaten Platten auf dem lokalen Host. Die privaten Platten sind die Metageräte oder Datenträger, die sich nicht im lokalen Plattensatz befinden.
Pro Cluster sind maximal 32 Plattensätze zulässig. Die Zahl lässt 31 Plattensätze für die allgemeine Verwendung plus einem Plattensatz für die Privatplattenverwaltung zu. Der Standardwert von md_nsets beträgt 4.
nmd – Das Feld nmd definiert die Anzahl von Metageräten oder Datenträgern, die für jeden Plattensatz erstellt werden. Stellen Sie den Wert von nmd auf den erwarteten höchsten Wert eines Metageräte- oder Datenträger-Namens ein, der von einem der Plattensätze im Cluster verwendet wird. Wenn ein Cluster zum Beispiel 10 Metageräte oder Datenträger in den ersten 15 Plattensätzen verwendet, aber 1000 Metageräte oder Datenträger im 16. Plattensatz, stellen Sie den Wert von nmd auf mindestens 1000 ein. Der Wert von nmd muss auch hoch genug sein, um sicherzustellen, dass genug Nummern für jeden Geräte-ID-Namen vorhanden sind. Die Zahl muss auch hoch genug sein, um sicherzustellen, dass jeder lokale Metageräte- oder Datenträgername im gesamten Cluster einmalig sein kann.
Der höchste zulässige Wert eines Metageräte- oder Datenträgernamens pro Plattensatz beträgt 8192. Der Standardwert von nmd beträgt 128.
Stellen Sie diese Felder bei der Installation so ein, dass auch zukünftige Erweiterungen des Clusters möglich sind. Das Erhöhen der Werte dieser Felder ist zeitaufwändig, wenn der Cluster schon produktiv ist. Das Ändern der Werte erfordert ein Rekonfigurations-Neubooten jedes Knotens. Das Anheben der Werte im Nachhinein erhöht auch die Möglichkeit von ungeeigneten Speicherplatzzuweisungen im Root-Dateisystem (/), um alle gewünschten Geräte zu erstellen.
Halten Sie gleichzeitig den Wert der Felder nmd und md_nsets so niedrig wie möglich. Für alle möglichen Geräte sind Speicherstrukturen gemäß den Festlegungen in nmd und md_nsets vorhanden, auch wenn Sie diese Geräte nicht erstellt haben. Setzen Sie für eine optimale Leistung die Werte von nmd und md_nsetsnur geringfügig höher als die Anzahl von Metageräten oder Datenträgern, die Sie zu verwenden planen.
Weitere Informationen zur Datei md.conf finden Sie unter “System and Startup Files” im Solstice DiskSuite 4.2.1 Reference Guide oder “System Files and Startup Files” in Solaris Volume Manager Administration Guide.
Beachten Sie folgende Punkte bei der Planung von Konfigurationen mit VERITAS Volume Manager (VxVM).
Gehäusebasierte Benennung – Die gehäusebasierte Benennung ist eine Funktion, die in der Version 3.2 von VxVM eingeführt wurde. Mit der gehäusebasierten Benennung von Geräten stellen Sie sicher, dass Sie konsistente Gerätenamen auf allen Cluster-Knoten verwenden, die denselben Speicherplatz gemeinsam nutzen. VxVM koordiniert diese Namen nicht, weshalb der Verwalter sicherstellen muss, dass VxVM denselben Geräten dieselben Namen von unterschiedlichen Knoten zuweist. Die Nichtbeachtung der konsistenten Namenszuweisung beeinträchtigt das korrekte Cluster-Verhalten nicht. Inkonsistente Namen komplizieren jedoch die Cluster-Verwaltung und erhöhen die Wahrscheinlichkeit von Konfigurationsfehlern, die potenziell zu Datenverlusten führen können.
Root-Plattengruppe – Sie müssen eine standardmäßige Root-Plattengruppe auf jedem Knoten erstellen. Die Root-Plattengruppe kann auf folgenden Platten erstellt werden:
Die Root-Platte, die eingekapselt werden muss.
Eine oder mehrere lokale Nicht-Root-Platten, die Sie einkapseln oder initialisieren können.
Eine Kombination von Root- und Nicht-Root-Platten.
Die Root-Plattengruppe muss lokal im Knoten sein.
Einkapselung – Die Platten, die eingekapselt werden sollen, müssen zwei freie Einträge Plattenbereichs-Tabelleneinträge aufweisen.
Anzahl von Datenträgern – Schätzen Sie bei der Erstellung der Plattengerätegruppe die maximale Anzahl von Datenträgern, die eine Plattengerätegruppe verwenden kann.
Wenn die Anzahl von Datenträgern weniger als 1000 beträgt, können Sie die Standard-Unternummern verwenden.
Wenn die Anzahl von Datenträgern 1000 oder mehr beträgt, müssen Sie sorgfältig planen, wie die Unternummern den Plattengerätegruppen-Datenträgern zugewiesen werden. Die Unternummernzuweisungen dürfen sich in keinen Plattengerätegruppen überlappen.
Dirty Region Logging – Verwenden von Dirty Region Logging (DRL) senkt die Wiederherstellungszeit nach einem Knotenausfall. Die Verwendung von DRL kann die E/A-Leistung senken.
Dynamic Multipathing (DMP) – Die Verwendung von DMP allein für die Verwaltung mehrerer E/A-Pfade pro Knoten zum gemeinsam genutzten Speicher wird nicht unterstützt. Die Verwendung von DMP wird nur in folgenden Konfigurationen unterstützt:
Ein einziger E/A-Pfad pro Knoten zum gemeinsam genutzten Cluster-Speicher.
Eine unterstützte Multipathing-Lösung, wie zum Beispiel Sun Traffic Manager, EMC PowerPath oder Hiatchi HDLM, die mehrere E/A-Pfade pro Knoten zum gemeinsam genutzten Cluster-Speicher verwaltet.
Protokollierung ist für Cluster-Dateisysteme erforderlich. Die Sun Cluster-Software unterstützt folgende Möglichkeiten der Dateisystem-Protokollierung:
Solaris UFS logging – Weitere Informationen finden Sie in der Online-Dokumentation unter mount_ufs(1M).
Solstice DiskSuite trans-metadevice logging oder Solaris Volume Manager transactional-volume logging – Weitere Informationen finden Sie unter “Creating DiskSuite Objects” in Solstice DiskSuite 4.2.1 User's Guide oder “Transactional Volumes (Overview)” in Solaris Volume Manager Administration Guide.
SPARC: VERITAS File System (VxFS), Protokollierung – Weitere Informationen finden Sie in der Online-Dokumentation zu mount_vxfs, die mit der VxFS-Software mitgeliefert wird.
Die folgende Tabelle listet die Dateisystem-Protokollierung auf, die vom jeweiligen Datenträger-Manager unterstützt wird.
Tabelle 1–6 Matrix der unterstützten Dateisystem-Protokollierungen
Datenträger-Manager |
Unterstützte Dateisystem-Protokollierung |
---|---|
Solstice DiskSuite/Solaris Volume Manager |
Solaris UFS logging, Solstice DiskSuite trans-metadevice logging oder Solaris Volume Manager transactional-volume logging, VxFS-Protokollierung |
SPARC: VERITAS Volume Manager |
Solaris UFS logging, VxFS-Protokollierung |
Beachten Sie folgende Punkte, wenn Sie zwischen Solaris UFS logging und Solstice DiskSuite trans-metadevice logging/Solaris Volume Manager transactional-volume logging wählen:
Es ist geplant, Solaris Volume Manager transactional-volume logging (früher Solstice DiskSuite trans-metadevice logging) bei einer kommenden Solaris-Version aus der Solaris-Betriebsumgebung zu entfernen. Solaris UFS logging bietet dieselben Funktionen, aber höhere Leistung bei geringeren Systemverwaltungsanforderungen und -aufwand.
Solaris UFS-Protokollgröße – Solaris UFS logging speichert das Protokoll immer unter Verwendung von freiem Speicherplatz im UFS-Dateisystem je nach Größe des Dateisystems.
Bei Dateisystemen unter 1 GB belegt das Protokoll 1 MB.
Bei 1 GB großen oder größeren Dateisystemen belegt das Protokoll 1 MB pro GB des Dateisystems bis zu maximal 64 MB.
Protokoll-Metagerät/Transaktions-Datenträger – Ein Solstice DiskSuite-Transaktions-Metagerät oder ein Solaris Volume Manager-Transaktions-Datenträger unterstützt UFS-Protokollierung. Die Protokollierungs-Gerätekomponente eines Transaktions-Metageräts oder Transaktions-Datenträgers ist ein Metagerät oder ein Datenträger, das Spiegeln und Striping zulässt. Sie können eine Protokollgröße bis zu maximal 1 GB erstellen, obwohl 64 MB für die meisten Dateisysteme ausreichend sind. Die Mindestprotokollgröße beträgt 1 MB.
Dieser Abschnitt bietet folgende Richtlinien für die Planung der Spiegelung der Cluster-Konfiguration:
Wenn Sie alle Multihostplatten in einer Sun Cluster-Konfiguration spiegeln, kann die Konfiguration Ausfälle von einzelnen Platten tolerieren. Die Sun Cluster-Software erfordert, dass Sie alle Multihostplatten Plattenerweiterungseinheiten-übergreifend spiegeln. Sie müssen keine Softwarespiegelung verwenden, wenn das Speichergerät über Hardware-RAID sowie redundante Pfade zur Platte verfügt.
Beachten Sie folgende Punkte, wenn Sie Multihostplatten spiegeln.
Getrennte Plattenerweiterungseinheiten – Jeder Unterspiegel eines gegebenen Spiegels oder Plex sollte sich auf einer anderen Multihostplatten-Erweiterungseinheit befinden.
Festplattenkapazität – Das Spiegeln verdoppelt die erforderliche Festplattenkapazität.
Dreifach-Spiegelung – Solstice DiskSuite/Solaris Volume Manager-Software und VERITAS Volume Manager (VxVM) unterstützen Dreifach-Spiegelung. Die Sun Cluster-Software erfordert jedoch nur Zweifach-Spiegelung.
Anzahl von Metageräten oder Datenträgern – Unter der Software Solstice DiskSuite/Solaris Volume Manager bestehen die Spiegel aus anderen Solstice DiskSuite-Metageräten oder Solaris Volume Manager-Datenträgern wie Verkettungen oder Stripes. Große Konfigurationen können eine große Anzahl von Metageräten oder Datenträgern umfassen.
Unterschiedliche Plattengrößen – Wenn Sie eine Platte auf einer Platte mit unterschiedlicher Kapazität spiegeln, ist die Spiegelungskapazität auf die Kapazität des kleinsten Unterspiegels oder Plex beschränkt.
Weitere Informationen zu Multihost-Platten finden Sie unter “Multihost Disk Storage” in Sun Cluster Overview for Solaris OS und im Sun Cluster Concepts Guide for Solaris OS.
Fügen Sie dem Arbeitsblatt Lokales Dateisystem-Layout diese Planungsinformationen hinzu.
Maximale Verfügbarkeit erzielen Sie, wenn Sie root (/), /usr, /var, /opt und swap auf den lokalen Platten spiegeln. Unter VxVM kapseln Sie die Root-Platte ein und spiegeln die generierten Unterplatten. Für die Sun Cluster-Software ist es jedoch nicht erforderlich, dass Sie die Root-Platte spiegeln.
Bevor Sie entscheiden, ob Sie die Root-Platte spiegeln, wägen Sie die Risiken, die Komplexität, die Kosten und den Verwaltungsaufwand der verschiedenen Alternativen ab, die die Root-Platte betreffen. Es gibt keine Spiegelungsstrategie, die für alle Konfigurationen gültig ist. Vielleicht ist es hilfreich, die bevorzugte Lösung Ihres lokalen Sun-Servicevertreters zu kennen, wenn Sie entscheiden, ob Sie die Root-Platte spiegeln sollen.
Anweisungen zum Spiegeln der Root-Platte finden Sie in der Datenträger-Manager-Dokumentation und unter Installieren und Konfigurieren der Software Solstice DiskSuite/Solaris Volume Manager oder SPARC: Installieren und Konfigurieren der Software VxVM.
Beachten Sie folgende Punkte, wenn Sie entscheiden, ob Sie die Root-Platte spiegeln.
Startdatenträger – Sie können den Spiegel als bootfähige Root-Platte konfigurieren. Sie können dann vom Spiegel booten, wenn der Primär-Startdatenträger ausfällt.
Komplexität – Das Spiegeln der Root-Platte macht die Systemverwaltung komplexer. Durch das Spiegeln der Root-Platte wird auch das Booten im Einzelbenutzermodus komplizierter.
Sicherungen – Unabhängig davon, ob Sie die Root-Platte spiegeln oder nicht, sollten Sie regelmäßig Sicherungskopien des Root erstellen. Das Spiegeln allein schützt nicht vor Verwaltungsfehlern. Nur ein Sicherungsplan ermöglicht Ihnen, Dateien wiederherzustellen, die unbeabsichtigt geändert oder gelöscht wurden.
Quorum-Geräte – Verwenden Sie keine als Quorum-Gerät konfigurierte Platte zum Spiegeln einer Root-Platte.
Quorum – Unter der Software Solstice DiskSuite/Solaris Volume Manager können Sie bei einem Ausfallszenario mit verloren gegangenem Zustands-Datenbankquorum das System erst neu booten, wenn die Wartung erfolgt ist. Informationen zu Zustands-Datenbanken und Zustands-Datenbankreplikate finden Sie in der Dokumentation zu Solstice DiskSuite/Solaris Volume Manager.
Getrennte Controller – Höchste Verfügbarkeit wird erreicht, wenn die Root-Platte auf einem getrennten Controller gespiegelt wird.
Sekundäre Root-Platte – Bei einer gespiegelten Root-Platte kann die primäre Root-Platte ausfallen und die Arbeit dennoch auf der (gespiegelten) sekundären Root-Platte fortgesetzt werden. Später kann die primäre Root-Platte, zum Beispiel nach einem Kurzschluss oder vorübergehenden E/A-Fehlern, wieder in Betrieb genommen werden. Die nachfolgenden Boot-Vorgänge werden dann auf der primären Root-Platte durchgeführt, die für den eeprom(1M) boot-device-Parameter angegeben ist. In diesem Fall erfolgen keine manuellen Reparaturarbeiten, doch das Laufwerk beginnt ausreichend gut zu arbeiten, um zu starten. Bei Solstice DiskSuite/Solaris Volume Manager erfolgt eine Resynchronisierung. Eine Resynchronisierung erfordert einen manuellen Schritt, wenn das Laufwerk wieder in Betrieb genommen wird.
Wenn Änderungen an Dateien der (gespiegelten) sekundären Root-Platte vorgenommen wurden, sind diese beim Starten der primären Root-Platte nicht vorhanden. Diese Bedingung führt zu einem veralteten Unterspiegel. Änderungen an der Datei /etc/system würden zum Beispiel verloren gehen. Bei Solstice DiskSuite/Solaris Volume Manager können manche Verwaltungsbefehle die Datei /etc/system geändert haben, während die primäre Root-Platte außer Betrieb war.
Das Boot-Programm prüft nicht, ob das System von einem Spiegel oder vom zugrunde liegenden realen Gerät bootet. Wenn die Metageräte oder Datenträger geladen sind, wird die Spiegelung durch den Boot-Prozess eine aktive Bahn. Daher ist das System bis zu diesem Punkt für Probleme aufgrund veralteter Unterspiegel anfällig.