Sun Cluster Konzepthandbuch für Solaris OS

Kapitel 2 Schlüsselkonzepte – Hardwaredienstleister

In diesem Kapitel werden die Schlüsselkonzepte im Zusammenhang mit den Hardwarekomponenten einer SunPlex-Systemkonfiguration beschrieben. Zu den behandelten Themen gehören:

SunPlex-System-Hardware- und Softwarekomponenten

Diese Informationen richten sich in erster Linie an Hardwaredienstleister. Diese Konzepte helfen Dienstleistern dabei, die Beziehungen zwischen den Hardwarekomponenten zu verstehen, bevor sie Cluster-Hardware installieren, konfigurieren oder warten. Auch für Cluster-Systemverwalter können diese Informationen als Hintergrund für das Installieren, Konfigurieren und Verwalten von Cluster-Software nützlich sein.

Ein Cluster besteht aus mehreren Hardwarekomponenten einschließlich:

Mit dem SunPlex-System können Sie diese Komponenten in unterschiedlichen Konfigurationen kombinieren, die unter SPARC: Sun Cluster-Topologiebeispiele beschrieben sind.

Eine Abbildung einer Zwei-Knoten-Cluster-Konfiguration finden Sie unter “Sun Cluster Hardware Environment” in Sun Cluster Overview for Solaris OS.

Cluster-Knoten

Ein Cluster-Knoten ist ein Rechner, auf dem sowohl die Solaris-Betriebsumgebung als auch die Sun Cluster-Software läuft und der entweder ein aktuelles (ein Cluster-Mitglied) oder ein potenzielles Mitglied des Clusters ist.

SPARC: Mit der Sun Cluster-Software können Sie zwei bis acht Knoten in einen Cluster einbinden. Die unterstützten Knotenkonfigurationen finden Sie unter SPARC: Sun Cluster-Topologiebeispiele.

x86: Mit der Sun Cluster-Software können Sie zwei Knoten in einen Cluster einbinden. Die unterstützten Knoten-Konfigurationen finden Sie unter x86: Sun Cluster-Topologiebeispiele.

Cluster-Knoten sind im allgemeinen an mindestens eine Multihostplatte angeschlossen. Nicht an Multihostplatten angeschlossene Knoten verwenden das Cluster-Dateisystem zum Zugriff auf die Multihostplatten. In einer Scalable-Dienste-Konfiguration können die Knoten beispielsweise Anfragen abwickeln, ohne direkt mit den Multihostplatten verbunden zu sein.

Daneben teilen Knoten in Konfigurationen paralleler Datenbanken den gleichzeitigen Zugriff auf alle Platten. Weitere Informationen zu Konfigurationen paralleler Datenbanken finden Sie unter Multihostplatten und Kapitel 3.

Alle Knoten im Cluster sind unter einem gemeinsamen Namen zusammengefasst — dem Cluster-Namen —, der für den Cluster-Zugriff und die Cluster-Verwaltung verwendet wird.

Öffentliche Netzwerkadapter verbinden die Knoten mit den öffentlichen Netzwerken und ermöglichen den Zugriff der Clients auf den Cluster.

Cluster-Mitglieder kommunizieren über mindestens ein real unabhängiges Netzwerk miteinander. Dieser Satz aus real unabhängigen Netzwerken wird als Cluster-Interconnect bezeichnet.

Jeder Knoten im Cluster nimmt wahr, wenn ein anderer Knoten dem Cluster beitritt oder diesen verlässt. Daneben nimmt jeder Knoten sowohl die lokalen Ressourcen als auch die Ressourcen auf den anderen Cluster-Knoten wahr.

Knoten innerhalb desselben Clusters sollten eine vergleichbare Verarbeitungs-, Speicher- und E/A-Kapazität aufweisen, so dass ein Failover ohne nennenswerten Leistungsabfall möglich ist. Aufgrund eines möglichen Failovers muss jeder Knoten über genügend Überkapazität verfügen, um die Arbeitslast aller Knoten zu übernehmen, für die er als Sicherung oder Sekundärknoten fungiert.

Jeder Knoten bootet sein eigenes, individuelles Root-Dateisystem (/).

Softwarekomponenten für Cluster-Hardware-Mitglieder

Folgende Software muss installiert sein, um als Cluster-Mitglied funktionieren zu können:

Im Sun Cluster Software Installation Guide finden Sie Informationen zur Installation der Solaris-Betriebsumgebung, des Sun Clusters und der Datenträgerverwaltungs-Software.

Informationen zur Installation und Konfiguration von Datendiensten finden Sie im Sun Cluster Data Services Planning and Administration Guide.

Konzeptionelle Informationen zu den vorgenannten Softwarekomponenten finden Sie in Kapitel 3.

Die nachstehende Abbildung bietet einen Überblick auf höchster Ebene über die Softwarekomponenten, die zusammen die Sun Cluster-Softwareumgebung bilden.

Abbildung 2–1 Die Beziehung der Sun Cluster-Softwarekomponenten auf höchster Ebene

Abbildung: Die Erläuterung zur Grafik ergibt sich aus dem vorstehenden Kontext.

Fragen und Antworten zu Cluster-Mitgliedern finden Sie in Kapitel 4.

Multihostplatten

Platten, die mit mehr als einem Knoten gleichzeitig verbunden werden können, sind Multihostplatten. In einer Sun Cluster-Umgebung sorgt die Multihostspeicherung für hoch verfügbare Platten. Sun Cluster benötigt Multihostspeicher für Zwei-Knoten-Cluster zur Einrichtung des Quorums. Cluster mit mehr als drei Knoten benötigen keinen Multihostspeicher.

Multihostplatten haben folgende Eigenschaften.

Ein Datenträger-Manager sorgt bei gespiegelten oder RAID-5-Konfigurationen für die Datenredundanz der Multihostplatten. Derzeit unterstützt Sun Cluster die Datenträger-Manager Solaris Volume ManagerTM und VERITAS Volume Manager, der in ausschließlich SPARC-basierten Clustern eingesetzt werden kann, sowie den RDAC RAID-5-Hardware-Controller auf verschiedenen RAID-Hardwareplattformen.

Die Kombination aus Multihostplatten und Plattenspiegelung sowie Striping schützt vor Knoten- und Einzelplattenversagen.

Fragen und Antworten zum Multihostspeicher finden Sie in Kapitel 4.

Multi-Initiator-SCSI

Dieser Abschnitt betrifft nur SCSI-Speichergeräte und keine Glasfaserkanal-Speicher, die für Multihostplatten eingesetzt werden.

Auf einem Standalone-Server steuert der Serverknoten die SCSI-Busaktivitäten durch die SCSI-Host-Adapterschaltung, die diesen Server mit einem bestimmten SCSI-Bus verbindet. Diese SCSI-Host-Adapterschaltung wird als SCSI-Initiator bezeichnet. Die Schaltung initiiert alle Busaktivitäten für diesen SCSI-Bus. Die SCSI-Standardadresse der SCSI-Host-Adapter in Sun-Systemen ist 7.

Cluster-Konfigurationen teilen ihren Speicher unter Verwendung von Multihostplatten auf mehrere Serverknoten auf. Wenn der Cluster-Speicher aus symmetrischen oder unsymmetrischen SCSI-Geräten besteht, wird die Konfiguration als Multi-Initiator-SCSI bezeichnet. Wie aus dieser Terminologie hervorgeht, ist mehr als ein SCSI-Initiator auf dem SCSI-Bus vorhanden ist.

Die SCSI-Spezifikation erfordert, dass jedes Gerät im SCSI-Bus eine einmalige SCSI-Adresse hat. (Der Host-Adapter ist ebenfalls ein Gerät im SCSI-Bus.) Die Standard-Hardwarekonfiguration führt in einer Multi-Initiator-Umgebung zu einem Konflikt, weil alle SCSI-Host-Adapter standardmäßig auf 7 gesetzt werden.

Lassen Sie zur Beseitigung dieses Konflikts auf jedem SCSI-Bus einen der SCSI-Host-Adapter mit der SCSI-Adresse 7, und stellen Sie für die anderen Host-Adapter ungenutzte SCSI-Adressen ein. Eine zweckmäßige Planung schreibt vor, dass sowohl die derzeit ungenutzten als auch die potenziell ungenutzten Adressen zu den “ungenutzten” SCSI-Adressen gehören. Ein Beispiel für zukünftige, ungenutzte Adressen ist das Aufstocken des Speichers durch das Installieren neuer Laufwerke an freien Laufwerk-Steckplätzen.

In den meisten Konfigurationen ist 6 die verfügbare SCSI-Adresse für einen zweiten Host-Adapter.

Sie können die ausgewählten SCSI-Adressen für diese Host-Adapter ändern, indem Sie eines der folgenden Tools zum Einstellen der scsi-initiator-id-Eigenschaft verwenden:

Sie können diese Eigenschaft global für einen Knoten oder für jeden Host-Adapter einzeln einstellen. Anweisungen zum Einstellen einer einmaligen scsi-initiator-id-Eigenschaft für jeden SCSI-Host-Adapter finden Sie im jeweiligen Kapitel für jedes Plattengehäuse im Sun Cluster Hardware Collection.

Lokale Platten

Lokale Platten sind Platten, die nur mit einem einzigen Knoten verbunden sind. Sie sind aus diesem Grund nicht vor Knotenversagen geschützt (nicht hoch verfügbar). Dennoch sind alle Platten, auch lokale Platten, im globalen Namensraum enthalten und als globale Geräte konfiguriert. Aus diesem Grund sind die Platten selbst von allen Cluster-Knoten aus sichtbar.

Sie können die Dateisysteme auf lokalen Platten für andere Knoten verfügbar machen, indem Sie diese unter einen globalen Einhängepunkt stellen. Versagt der Knoten, an dem derzeit eines dieser globalen Dateisysteme eingehängt ist, kann kein Knoten auf dieses Dateisystem zugreifen. Mithilfe eines Datenträger-Managers können Sie diese Platten spiegeln, so dass ein Fehler nicht dazu führt, dass kein Zugriff mehr auf diese Dateisysteme besteht; Datenträger-Manager schützen aber nicht vor Knotenversagen.

Weitere Informationen zu globalen Geräten finden Sie im Abschnitt Globale Geräte.

Wechselmedien

Wechselmedien wie Band- und CD-ROM-Laufwerke werden in einem Cluster unterstützt. Im Allgemeinen installieren, konfigurieren und warten Sie diese Geräte ebenso wie in einer Nicht-Cluster-Umgebung. Diese Geräte werden in Sun Cluster als globale Geräte konfiguriert, so dass jeder Knoten im Cluster auf jedes Gerät zugreifen kann. Informationen zum Installieren und Konfigurieren von Wechselmedien finden Sie unter Sun Cluster Hardware Collection.

Weitere Informationen zu globalen Geräten finden Sie im Abschnitt Globale Geräte.

Cluster-Interconnect

Der Cluster-Interconnect ist die reale Konfiguration der Geräte, die für die Übertragung von Cluster-privaten Kommunikationen und Datendienstkommunikationen zwischen Cluster-Knoten eingesetzt wird. Der Interconnect wird umfassend für Cluster-interne Kommunikationen verwendet und kann dadurch die Leistung begrenzen.

Nur Cluster-Knoten können mit dem Cluster-Interconnect verbunden werden. Das Sun Cluster-Sicherheitsmodell setzt voraus, dass nur Cluster-Knoten real Zugriff auf den Cluster-Interconnect haben.

Alle Knoten müssen mit dem Cluster-Interconnect über mindestens zwei redundante, real unabhängige Netzwerke oder Pfade verbunden sein, um einen Single Point of Failure (Ausfallpunkt) zu vermeiden. Sie können mehrere real unabhängige Netzwerke (bis zu sechs) zwischen zwei beliebigen Knoten einrichten. Der Cluster-Interconnect besteht aus drei Hardwarekomponenten: Adapter, Verbindungspunkten und Kabeln.

Die nachstehende Liste beschreibt jede dieser Hardwarekomponenten.

Fragen und Antworten zum Cluster-Interconnect finden Sie in Kapitel 4.

Öffentliche Netzwerkschnittstellen

Die Verbindung der Clients mit dem Cluster erfolgt über die öffentlichen Netzwerkschnittstellen. Jede Netzwerkadapterkarte kann an ein oder mehrere öffentliche Netzwerke angeschlossen sein, je nachdem, ob die Karte mehrere Hardwareschnittstellen hat. Sie können Knoten mit mehreren öffentlichen Netzwerkschnittstellenkarten einrichten, die so konfiguriert sind, dass mehrere Karten aktiv sind und dadurch gegenseitig als Failover-Sicherung dienen. Wenn einer der Adapter ausfällt, wird die IP Network Multipathing-Software aufgerufen, um ein Failover von der fehlerhaften Schnittstelle auf einen anderen Adapter in der Gruppe auszuführen.

Es gibt keine hardwarespezifischen Erwägungen im Zusammenhang mit der Cluster-Bildung für öffentliche Netzwerke.

Fragen und Antworten zu öffentlichen Netzwerken finden Sie in Kapitel 4.

Client-Systeme

Client-Systeme beinhalten Workstations oder andere Server, die über das öffentliche Netzwerk auf den Cluster zugreifen. Clientseitige Programme verwenden Daten oder andere Dienste, die von auf dem Cluster laufenden serverseitigen Anwendungen zur Verfügung gestellt werden.

Client-Systeme sind nicht hoch verfügbar. Daten und Anwendungen auf dem Cluster sind hoch verfügbar.

Fragen und Antworten zu Client-Systemen finden Sie in Kapitel 4.

Konsolenzugriffsgeräte

Sie benötigen Konsolenzugriff auf alle Cluster-Knoten. Verwenden Sie für den Konsolenzugriff den Terminal-Konzentrator, den Sie mit Ihrer Cluster-Hardware erworben haben, den System Service Processor (SSP) auf Sun Enterprise E10000TM-Servern (für SPARC-basierte Cluster), den System-Controller auf Sun FireTM-Servern (ebenfalls für SPARC-basierte Cluster) oder ein anderes Gerät, das auf ttya auf jedem Knoten zugreifen kann.

Bei Sun ist nur ein unterstützter Terminal-Konzentrator verfügbar, dessen Verwendung optional ist. Der Terminal-Konzentrator ermöglicht den Zugriff auf /dev/console auf jedem Knoten über ein TCP/IP-Netzwerk. Damit kann auf Konsolenebene von einer Remote-Workstation im Netzwerk aus auf jeden Knoten zugegriffen werden.

Der System Service Processor (SSP) stellt Konsolenzugriff für Sun Enterprise E10000 server zur Verfügung. Der SSP ist ein Rechner in einem Ethernet-Netzwerk, der so konfiguriert wurde, dass er den Sun Enterprise E10000 server unterstützt. Der SSP ist die Verwaltungskonsole für den Sun Enterprise E10000 server. Mit der Sun Enterprise E10000-Netzwerkkonsolenfunktion kann jede Workstation im Netzwerk eine Host-Konsolensitzung öffnen.

Zu den weiteren Zugriffsmethoden auf die Konsole gehören andere Terminal-Konzentratoren, tip(1)-Zugriff über den seriellen Port von einem anderen Knoten aus und unintelligente Terminals. Sie können Tastaturen und Monitore von SunTM oder andere Geräte für den seriellen Port verwenden, wenn Ihr Hardwaredienstleister diese unterstützt.

Verwaltungskonsole

Sie können eine dedizierte UltraSPARC®-Workstation oder einen Sun FireTM-V65x-Server, die als Verwaltungskonsole bezeichnet werden, für die Verwaltung des aktiven Clusters verwenden. Normalerweise wird Verwaltungstool-Software wie der Cluster-Steuerbereich (CCP) und das Sun Cluster-Modul für das Sun Management CenterTM-Produkt (nur zur Verwendung in SPARC-basierten Clustern) in der Verwaltungskonsole installiert und ausgeführt. Mit cconsole im CCP können Sie mehr als eine Knotenkonsole gleichzeitig verbinden. Weitere Informationen zur Verwendung des CCP finden Sie im Sun Cluster System Administration Guide.

Die Verwaltungskonsole ist kein Cluster-Knoten. Sie setzen die Verwaltungskonsole für den Remote-Zugriff auf Cluster-Knoten entweder über öffentliche Netzwerke oder optional über einen netzwerkbasierten Terminal-Konzentrator ein. Wenn Ihr Cluster aus der Sun Enterprise E10000-Plattform besteht, müssen Sie die Möglichkeit haben, sich von der Verwaltungskonsole aus beim System Service Processor (SSP) anzumelden und die Verbindung mit dem Befehl netcon(1M) herzustellen.

In der Regel konfigurieren Sie die Knoten ohne Monitore. Dann greifen Sie mit einer telnet-Sitzung von der Verwaltungskonsole aus, die mit einem Terminal-Konzentrator verbunden ist, auf die Konsole des Knotens zu, und vom Terminal-Konzentrator aus auf den seriellen Port des Knotens. (Bei einem Sun Enterprise E10000 server stellen Sie die Verbindung über den System Service Processor her.) Weitere Informationen finden Sie unter Konsolenzugriffsgeräte.

Sun Cluster erfordert zwar keine dedizierte Verwaltungskonsole, aber diese bietet folgende Vorteile:

Fragen und Antworten zur Verwaltungskonsole finden Sie in Kapitel 4.

SPARC: Sun Cluster-Topologiebeispiele

Eine Topologie ist das Verbindungsschema, nach dem die Cluster-Knoten mit den im Cluster verwendeten Speicherplattformen verbunden sind. Sun Cluster unterstützt jede Topologie, die folgende Richtlinien einhält.

Sun Cluster schreibt für die Konfiguration eines Clusters keine spezifischen Topologien vor. Die Beschreibung der folgenden Topologien soll das Vokabular zur Erläuterung eines Cluster-Verbindungsschemas erschließen. Diese Topologien zeigen typische Verbindungsschemata.

Die folgenden Abschnitte enthalten Beispielgrafiken für jede Topologie.

SPARC: Geclusterte-Paare-Topologie

Eine Geclusterte-Paare-Topologie besteht aus zwei oder mehr Knotenpaaren, die unter einem einzigen Cluster-Verwaltungs-Framework arbeiten. In dieser Konfiguration wird ein Failover nur zwischen einem Paar ausgeführt. Dabei sind jedoch alle Knoten über den Cluster-Interconnect verbunden und arbeiten unter der Sun Cluster-Softwaresteuerung. Mit dieser Topologie können Sie eine parallele Datenbankanwendung auf einem Paar und eine Failover- oder Scalable-Anwendung auf einem anderen Paar ausführen.

Mithilfe des Cluster-Dateisystems können Sie auch eine Konfiguration mit zwei Paaren erstellen, bei der mehr als zwei Knoten einen Scalable-Dienst oder eine parallele Datenbank ausführen, selbst wenn nicht alle Knoten mit den Platten verbunden sind, auf denen die Anwendungsdaten gespeichert werden.

Die nachstehende Abbildung zeigt eine Geclusterte-Paare-Konfiguration.

Abbildung 2–2 SPARC: Geclusterte-Paare-Topologie

Abbildung: Die Erläuterung zur Grafik ergibt sich aus dem vorstehenden Kontext.

SPARC: Paar+N-Topologie

Die Paar+N-Topologie umfasst ein direkt mit einem gemeinsam genutzten Speicher verbundenes Knotenpaar und einen weiteren Knotensatz, der den Cluster-Interconnect für den Zugriff auf den gemeinsam genutzten Speicher einsetzt — sie sind nicht direkt miteinander verbunden.

Die nachstehende Abbildung stellt eine Paar+N-Topologie dar, in der zwei der vier Knoten (Knoten 3 und Knoten 4) den Cluster-Interconnect für den Speicherzugriff verwenden. Diese Konfiguration kann um zusätzliche Knoten erweitert werden, die keinen direkten Zugriff auf den gemeinsam genutzten Speicher haben.

Abbildung 2–3 SPARC: Paar+N-Topologie

Abbildung: Die Erläuterung zur Grafik ergibt sich aus dem vorstehenden Kontext.

SPARC: N+1-(Stern)-Topologie

Eine N+1-Topologie umfasst mehrere Primärknoten und einen Sekundärknoten. Sie müssen die Primärknoten und den Sekundärknoten nicht identisch konfigurieren. Die Primärknoten stellen aktiv Anwendungsdienste zur Verfügung. Der Sekundärknoten muss sich nicht im Leerlauf befinden, während er auf den Ausfall eines Primärknotens wartet.

Der Sekundärknoten ist der einzige Knoten in der Konfiguration, der real mit dem ganzen Multihostspeicher verbunden ist.

Wenn ein Fehler in einem Primärknoten auftritt, führt Sun Cluster ein Failover der Ressourcen auf den Sekundärknoten durch, auf dem die Ressourcen bleiben, bis sie (entweder automatisch oder manuell) wieder auf den Primärknoten umgeschaltet werden.

Der Sekundärknoten muss immer über eine ausreichende CPU-Überkapazität verfügen, um die Last übernehmen zu können, falls einer der Primärknoten ausfällt.

Die nachstehende Abbildung stellt eine N+1-Konfiguration dar.

Abbildung 2–4 SPARC: N+1-Topologie

Abbildung: Die Erläuterung zur Grafik ergibt sich aus dem vorstehenden Kontext.

SPARC: N*N-(Scalable)-Topologie

Mit einer N*N-Topologie können alle gemeinsam genutzten Speichergeräte in einem Cluster mit allen Knoten im Cluster verbunden werden. Mit dieser Topologie können hoch verfügbare Anwendungen ohne Abfall der Dienstqualität von einem Knoten auf einen anderen umgeleitet werden. Bei einem Failover kann der neue Knoten über einen lokalen Pfad auf das Speichergerät zugreifen, anstatt den privaten Interconnect zu verwenden.

Die nachstehende Abbildung stellt eine N*N-Konfiguration dar.

Abbildung 2–5 SPARC: N*N-Topologie

Abbildung: Die Erläuterung zur Grafik ergibt sich aus dem vorstehenden Kontext.

x86: Sun Cluster-Topologiebeispiele

Eine Topologie ist das Verbindungsschema, nach dem die Cluster-Knoten mit den im Cluster verwendeten Speicherplattformen verbunden sind. Sun Cluster unterstützt jede Topologie, die folgende Richtlinien einhält.

Sun Cluster schreibt für die Konfiguration eines Clusters keine spezifischen Topologien vor. Die Beschreibung der folgenden Geclusterte-Paare-Topologie soll das Vokabular zur Erläuterung eines Cluster-Verbindungsschemas erschließen. Es handelt sich um die einzig mögliche Topologie für Cluster aus x86-basierten Knoten. Diese Topologie stellt ein typisches Verbindungsschema dar.

Der folgende Abschnitt enthält eine Beispielgrafik der Topologie.

x86: Geclusterte-Paare-Topologie

Eine Geclustertes-Paar-Topologie besteht aus zwei Knoten, die unter einem gemeinsamen Cluster-Verwaltungs-Framework arbeiten. In dieser Konfiguration wird ein Failover nur zwischen einem Paar ausgeführt. Dabei sind jedoch alle Knoten über den Cluster-Interconnect verbunden und arbeiten unter der Sun Cluster-Softwaresteuerung. Mit dieser Topologie können Sie eine parallele Datenbankanwendung auf einem Paar und eine Failover- oder Scalable-Anwendung auf einem anderen Paar ausführen.

Die nachstehende Abbildung zeigt eine Geclusterte-Paare-Konfiguration.

Abbildung 2–6 x86: Geclustete-Paar-Topologie

Abbildung: Die Erläuterung zur Grafik ergibt sich aus dem vorstehenden Kontext.