Sun Cluster Konzepthandbuch für Solaris OS

Kapitel 2 Schlüsselkonzepte für Hardwaredienstleister

Dieses Kapitel beschreibt die Schlüsselkonzepte bezüglich der Hardwarekomponenten einer Sun Cluster-Systemkonfiguration. Folgende Themen werden behandelt:

Hardware- und Softwarekomponenten des Sun Cluster-Systems

Diese Informationen richten sich in erster Linie an Hardwaredienstleister. Diese Konzepte helfen Dienstleistern dabei, die Beziehungen zwischen den Hardwarekomponenten zu verstehen, bevor sie Cluster-Hardware installieren, konfigurieren oder warten. Auch für Cluster-Systemverwalter können diese Informationen als Hintergrund für das Installieren, Konfigurieren und Verwalten von Cluster-Software nützlich sein.

Ein Cluster besteht aus mehreren Hardwarekomponenten einschließlich:

Das Sun Cluster-System ermöglicht Ihnen das Kombinieren dieser Komponenten in einer Vielzahl von Konfigurationen. Diese Konfigurationen werden in den folgenden Abschnitten beschrieben.

Eine Darstellung einer Beispiel-Cluster-Konfiguration mit zwei Knoten finden Sie unter Sun Cluster-Hardwareumgebung in Sun Cluster Überblick für das Betriebssystem Solaris.

Cluster-Knoten

Ein Cluster-Knoten ist ein Computer, auf dem sowohl das Solaris-Betriebssystem als auch die Sun Cluster-Software ausgeführt wird. Ein Cluster-Knoten ist somit entweder ein aktuelles Mitglied des Clusters (ein Cluster-Mitglied) oder ein potenzielles Mitglied.

Cluster-Knoten sind im Allgemeinen an mindestens ein Multihost-Gerät angeschlossen. Nicht an Multihost-Geräte angeschlossene Knoten verwenden das Cluster-Dateisystem zum Zugriff auf die Multihost-Geräte. In einer Scalable-Dienste-Konfiguration können die Knoten beispielsweise Anfragen abwickeln, ohne direkt mit den Multihost-Geräten verbunden zu sein.

Daneben teilen sich Knoten in Konfigurationen paralleler Datenbanken den gleichzeitigen Zugriff auf alle Platten.

Alle Knoten im Cluster sind unter einem gemeinsamen Namen zusammengefasst - dem Cluster-Namen - der für den Cluster-Zugriff und die Cluster-Verwaltung verwendet wird.

Öffentliche Netzwerkadapter verbinden die Knoten mit den öffentlichen Netzwerken und ermöglichen den Zugriff der Clients auf den Cluster.

Die Mitglieder eines Clusters kommunizieren mit den anderen Knoten im Cluster über ein oder mehrere physisch unabhängige Netzwerke. Diese Gruppe physisch unabhängiger Netzwerke wird als Cluster-Interconnect bezeichnet.

Jeder Knoten im Cluster nimmt wahr, wenn ein anderer Knoten dem Cluster beitritt oder diesen verlässt. Daneben nimmt jeder Knoten sowohl die lokalen Ressourcen als auch die Ressourcen auf den anderen Cluster-Knoten wahr.

Knoten innerhalb desselben Clusters sollten eine vergleichbare Verarbeitungs-, Speicher- und E/A-Kapazität aufweisen, so dass ein Failover ohne nennenswerten Leistungsabfall möglich ist. Aufgrund der Möglichkeit eines Failover muss jeder Knoten genügend überschüssige Kapazität aufweisen, um die Aufgaben aller Knoten zu übernehmen, für die er als Sicherungs- oder Sekundärknoten festgelegt ist.

Jeder Knoten bootet sein eigenes, individuelles Root-Dateisystem (/).

Softwarekomponenten für Cluster-Hardwaremitglieder

Auf einem Knoten, der als Cluster-Mitglied eingesetzt werden soll, muss folgende Software installiert sein:

Die folgende Abbildung bietet einen Überblick über die Softwarekomponenten, die gemeinsam die Sun Cluster-Softwareumgebung bilden.

Abbildung 2–1 Beziehung zwischen den Sun Cluster-Softwarekomponenten

Abbildung: Die Erläuterung zur Grafik ergibt sich aus dem vorstehenden Kontext.

In Kapitel 4, Fragen und Antworten finden Sie Fragen und Antworten zu den Cluster-Mitgliedern.

Multihost-Geräte

Platten, die mit mehr als einem Knoten gleichzeitig verbunden werden können, sind Multihost-Geräte. Durch die Multihost-Speicherung sind die Platten in der Sun Cluster-Umgebung hoch verfügbar. Die Sun Cluster-Software erfordert die Multihost-Speicherung zur Schaffung eines Quorums in Clustern mit zwei Knoten. Cluster mit mehr als zwei Knoten erfordern keine Quorum-Geräte. Weitere Informationen zum Quorum finden Sie unter Quorum und Quorum-Geräte .

Multihost-Geräte haben folgende Eigenschaften.

Ein Datenträger-Manager sorgt bei gespiegelten oder RAID-5-Konfigurationen für die Datenredundanz der Multihost-Geräten. Zurzeit unterstützt Sun Cluster die Programme Solaris Volume Manager und VERITAS Volume Manager, die nur in SPARC-basierten Clustern als Datenträger-Manager verwendet werden können, sowie den RDAC RAID-5-Hardwarecontroller auf verschiedenen Hardware-RAID-Plattformen.

Die Kombination aus Multihost-Geräten und Plattenspiegelung sowie Striping schützt vor Knoten- und Einzelplattenversagen.

In Kapitel 4, Fragen und Antworten finden Sie Fragen und Antworten zur Multihost-Speicherung.

Multi-Initiator-SCSI

Dieser Abschnitt betrifft nur SCSI-Speichergeräte und keine Glasfaserkanal-Speicher, die für Multihost-Geräte eingesetzt werden.

Auf einem Standalone-Server steuert der Serverknoten die SCSI-Busaktivitäten durch die SCSI-Host-Adapterschaltung, die diesen Server mit einem bestimmten SCSI-Bus verbindet. Diese SCSI-Hostadapterschaltung wird als SCSI-Initiator bezeichnet. Die Schaltung initiiert alle Busaktivitäten für diesen SCSI-Bus. Die SCSI-Standardadresse der SCSI-Host-Adapter in Sun-Systemen ist 7.

Cluster-Konfigurationen teilen ihren Speicher unter Verwendung von Multihost-Geräten auf mehrere Serverknoten auf. Wenn der Cluster-Speicher aus einpolig geerdeten oder differenziellen SCSI-Geräten besteht, wird die Konfiguration als Multi-Initiator-SCSI bezeichnet. Wie aus dieser Terminologie hervorgeht, ist mehr als ein SCSI-Initiator auf dem SCSI-Bus vorhanden ist.

Die SCSI-Spezifikation erfordert, dass jedes Gerät auf einem SCSI-Bus eine eindeutige SCSI-Adresse aufweist. (Der Host-Adapter ist ebenfalls ein Gerät im SCSI-Bus.) Die Standard-Hardwarekonfiguration führt in einer Multi-Initiator-Umgebung zu einem Konflikt, weil alle SCSI-Host-Adapter standardmäßig auf 7 gesetzt werden.

Lassen Sie zur Beseitigung dieses Konflikts auf jedem SCSI-Bus einen der SCSI-Host-Adapter mit der SCSI-Adresse 7, und stellen Sie für die anderen Host-Adapter ungenutzte SCSI-Adressen ein. Eine zweckmäßige Planung schreibt vor, dass sowohl die derzeit ungenutzten als auch die potenziell ungenutzten Adressen zu den "ungenutzten" SCSI-Adressen gehören. Ein Beispiel für zukünftige, ungenutzte Adressen ist das Aufstocken des Speichers durch das Installieren neuer Laufwerke an freien Laufwerk-Steckplätzen.

In den meisten Konfigurationen ist 6 die verfügbare SCSI-Adresse für einen zweiten Host-Adapter.

Sie können die ausgewählten SCSI-Adressen für diese Host-Adapter ändern, indem Sie eines der folgenden Tools zum Einstellen der scsi-initiator-id-Eigenschaft verwenden:

Sie können diese Eigenschaft global für einen Knoten oder für jeden Host-Adapter einzeln einstellen. Anweisungen zum Festlegen einer eindeutigen scsi-initiator-id für jeden SCSI-Hostadapter finden Sie im Sun Cluster 3.0-3.1 With SCSI JBOD Storage Device Manual for Solaris OS.

Lokale Platten

Lokale Platten sind Platten, die nur mit einem einzigen Knoten verbunden sind. Lokale Platten sind daher nicht vor Knotenversagen geschützt (nicht hoch verfügbar). Alle Platten, einschließlich lokaler Platten, sind im globalen Namespace enthalten und als globale Geräte konfiguriert. Aus diesem Grund sind die Platten selbst von allen Cluster-Knoten aus sichtbar.

Sie können die Dateisysteme auf lokalen Platten für andere Knoten verfügbar machen, indem Sie sie unterhalb eines globalen Einhängpunkts platzieren. Versagt der Knoten, an dem derzeit eines dieser globalen Dateisysteme eingehängt ist, kann kein Knoten auf dieses Dateisystem zugreifen. Mithilfe eines Datenträger-Managers können Sie diese Platten spiegeln, so dass ein Fehler nicht dazu führt, dass kein Zugriff mehr auf diese Dateisysteme besteht; Datenträger-Manager schützen aber nicht vor Knotenversagen.

Im Abschnitt Globale Geräte finden Sie weitere Informationen zu globalen Geräten.

Wechseldatenträger

Wechselmedien wie Band- und CD-ROM-Laufwerke werden in einem Cluster unterstützt. Im Allgemeinen werden diese Geräte auf dieselbe Weise installiert, konfiguriert und betrieben wie in einer Umgebung ohne Cluster. Diese Geräte werden in Sun Cluster als globale Geräte konfiguriert, sodass von jedem Knoten im Cluster auf jedes Gerät zugegriffen werden kann. Informationen zur Installation und Konfiguration von Wechseldatenträgern finden Sie im Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS.

Im Abschnitt Globale Geräte finden Sie weitere Informationen zu globalen Geräten.

Cluster-Interconnect

Der Cluster-Interconnect ist die reale Konfiguration der Geräte, die für die Übertragung von Cluster-privaten Kommunikationen und Datendienstkommunikationen zwischen Cluster-Knoten eingesetzt wird. Der Interconnect wird umfassend für Cluster-interne Kommunikationen verwendet und kann dadurch die Leistung begrenzen.

Nur Cluster-Knoten können mit dem Cluster-Interconnect verbunden werden. Das Sun Cluster-Sicherheitsmodell setzt voraus, dass nur Cluster-Knoten physischen Zugriff auf den Cluster-Interconnect haben.

Alle Knoten müssen mit dem Cluster-Interconnect über mindestens zwei redundante, real unabhängige Netzwerke oder Pfade verbunden sein, um einen Single Point of Failure (Ausfallpunkt) zu vermeiden. Sie können mehrere real unabhängige Netzwerke (bis zu sechs) zwischen zwei beliebigen Knoten einrichten.

Der Cluster-Interconnect besteht aus drei Hardwarekomponenten: Adapter, Verbindungspunkten und Kabeln. Die nachstehende Liste beschreibt jede dieser Hardwarekomponenten.

In Kapitel 4, Fragen und Antworten finden Sie Fragen und Antworten zum Cluster-Interconnect.

Öffentliche Netzwerkschnittstellen

Die Verbindung der Clients mit dem Cluster erfolgt über die öffentlichen Netzwerkschnittstellen. Jede Netzwerkadapterkarte kann an ein oder mehrere öffentliche Netzwerke angeschlossen sein, je nachdem, ob die Karte mehrere Hardwareschnittstellen hat. Sie können Knoten mit mehreren öffentlichen Netzwerkschnittstellenkarten einrichten, die so konfiguriert sind, dass mehrere Karten aktiv sind und dadurch gegenseitig als Failover-Sicherung dienen. Wenn einer der Adapter ausfällt, wird die Internet Protocol (IP) Network Multipathing-Software aufgerufen, um die defekte Schnittstelle durch einen anderen Adapter in der Gruppe zu ersetzen.

Es gibt keine hardwarespezifischen Erwägungen im Zusammenhang mit der Cluster-Bildung für öffentliche Netzwerke.

In Kapitel 4, Fragen und Antworten finden Sie Fragen und Antworten zu öffentlichen Netzwerken.

Client-Systeme

Client-Systeme beinhalten Workstations oder andere Server, die über das öffentliche Netzwerk auf den Cluster zugreifen. Client-seitige Programme verwenden Daten oder andere Dienste, die von serverseitigen Anwendungen bereitgestellt werden, die im Cluster ausgeführt werden.

Client-Systeme sind nicht hoch verfügbar. Daten und Anwendungen auf dem Cluster sind hoch verfügbar.

In Kapitel 4, Fragen und Antworten finden Sie Fragen und Antworten zu Client-Systemen.

Konsolenzugriffsgeräte

Sie benötigen Konsolenzugriff auf alle Cluster-Knoten. Verwenden Sie eines der folgenden Geräte, um auf die Konsole zuzugreifen:

Bei Sun ist nur ein unterstützter Terminal-Konzentrator verfügbar, dessen Verwendung optional ist. Der Terminal-Konzentrator ermöglicht den Zugriff auf /dev/console auf jedem Knoten über ein TCP/IP-Netzwerk. Damit kann auf Konsolenebene von einer Remote-Workstation im Netzwerk aus auf jeden Knoten zugegriffen werden.

Der System Service Processor (SSP) ermöglicht den Konsolenzugriff für Sun Enterprise E1000-Server. Der SSP ist ein Computer in einem Ethernet-Netzwerk, der zur Unterstützung des Sun Enterprise E1000-Servers konfiguriert wurde. Der SSP dient als Verwaltungskonsole für den Sun Enterprise E1000-Server. Mit der Sun Enterprise E10000-Netzwerkkonsolenfunktion kann jede Workstation im Netzwerk eine Host-Konsolensitzung öffnen.

Weitere Möglichkeiten für den Konsolenzugriff bieten Terminal-Konzentratoren, der tip(1)-Zugriff über den seriellen Anschluss eines anderen Knotens sowie Terminals ohne Verarbeitungsfunktionen. Sie können Tastaturen und Monitore von SunTM oder andere Geräte für den seriellen Port verwenden, wenn Ihr Hardwaredienstleister diese unterstützt.

Verwaltungskonsole

Als Verwaltungskonsole für den aktiven Cluster können Sie eine dedizierte UltraSPARC®-Workstation oder einen Sun Fire V65x-Server verwenden. In der Regel installieren Sie auf der Verwaltungskonsole Verwaltungssoftware wie das Cluster Control Panel (CCP) und das Sun Cluster-Modul für das Sun Management Center-Produkt (ausschließlich für die Verwendung mit SPARC-basierten Clustern). Mit cconsole im CCP können Sie mehr als eine Knotenkonsole gleichzeitig verbinden. Weitere Informationen zur Verwendung des CCP finden Sie in Kapitel 1, Einführung in die Verwaltung von Sun Cluster in Sun Cluster Handbuch Systemverwaltung für Solaris OS.

Die Verwaltungskonsole ist kein Cluster-Knoten. Sie setzen die Verwaltungskonsole für den Remote-Zugriff auf Cluster-Knoten entweder über öffentliche Netzwerke oder optional über einen netzwerkbasierten Terminal-Konzentrator ein. Wenn Ihr Cluster die Sun Enterprise E10000-Plattform umfasst, müssen Sie sich über die Verwaltungskonsole der SSP anmelden und über den Befehl netcon(1M) eine Verbindung herstellen.

In der Regel konfigurieren Sie die Knoten ohne Monitore. Anschließend greifen Sie an der Verwaltungskonsole über eine telnet-Sitzung auf die Konsole des Knotens zu. Die Verwaltungskonsole ist mit einem Terminal-Konzentrator und dieser wiederum mit dem seriellen Anschluss des Knotens verbunden. Bei einem Sun Enterprise E1000-Server stellen Sie die Verbindung über den System Service Processor her. Weitere Informationen hierzu finden Sie unter Konsolenzugriffsgeräte .

Sun Cluster erfordert keine dedizierte Verwaltungskonsole. Die Verwendung einer Verwaltungskonsole hätte jedoch folgende Vorteile:

In Kapitel 4, Fragen und Antworten finden Sie Fragen und Antworten zur Verwaltungskonsole.

SPARC: Sun Cluster-Topologien für SPARC

Eine Topologie ist das Verbindungsschema, nach dem die Cluster-Knoten mit den in der Sun Cluster-Umgebung verwendeten Speicherplattformen verbunden sind. Sun Cluster unterstützt jede Topologie, die folgende Richtlinien einhält.

Die Sun Cluster-Software schreibt für die Konfiguration eines Clusters keine spezifischen Topologien vor. Die Beschreibung der folgenden Topologien soll das Vokabular zur Erläuterung eines Cluster-Verbindungsschemas erschließen. Diese Topologien zeigen typische Verbindungsschemata.

Die folgenden Abschnitte enthalten Beispielgrafiken für jede Topologie.

SPARC: Geclusterte-Paare-Topologie für SPARC

Eine Geclusterte-Paare-Topologie besteht aus zwei oder mehreren Knotenpaaren, die unter einem einzigen Cluster-Verwaltungs-Framework arbeiten. In dieser Konfiguration wird ein Failover nur zwischen einem Paar ausgeführt. Dabei sind jedoch alle Knoten über den Cluster-Interconnect verbunden und arbeiten unter der Sun Cluster-Softwaresteuerung. Mit dieser Topologie können Sie eine parallele Datenbankanwendung auf einem Paar und eine Failover- oder Scalable-Anwendung auf einem anderen Paar ausführen.

Mithilfe des Cluster-Dateisystems können Sie auch eine Konfiguration mit zwei Paaren erstellen. Dabei führen mehr als zwei Knoten einen Scalable-Dienst oder eine parallele Datenbank aus, selbst wenn nicht alle Knoten mit den Platten verbunden sind, auf denen die Anwendungsdaten gespeichert werden.

Die nachstehende Abbildung zeigt eine Geclusterte-Paare-Konfiguration.

Abbildung 2–2 SPARC: Geclustete-Paar-Topologie

Abbildung: Die Erläuterung zur Grafik ergibt sich aus dem vorstehenden Kontext.

SPARC: Pair+N-Topologie für SPARC

Die Paar+N-Topologie umfasst ein direkt mit einem gemeinsam genutzten Speicher verbundenes Knotenpaar und einen weiteren Knotensatz, der den Cluster-Interconnect für den Zugriff auf den gemeinsam genutzten Speicher einsetzt ndash; sie sind nicht direkt miteinander verbunden.

Die nachstehende Abbildung stellt eine Paar+N-Topologie dar, in der zwei der vier Knoten (Knoten 3 und Knoten 4) den Cluster-Interconnect für den Speicherzugriff verwenden. Diese Konfiguration kann um zusätzliche Knoten erweitert werden, die keinen direkten Zugriff auf den gemeinsam genutzten Speicher haben.

Abbildung 2–3 Paar+N-Topologie

Abbildung: Die Erläuterung zur Grafik ergibt sich aus dem vorstehenden Kontext.

SPARC: N+1 (Star)-Topologie für SPARC

Eine N+1-Topologie umfasst mehrere Primärknoten und einen Sekundärknoten. Sie müssen die Primärknoten und den Sekundärknoten nicht identisch konfigurieren. Die Primärknoten stellen aktiv Anwendungsdienste zur Verfügung. Der Sekundärknoten muss sich nicht im Leerlauf befinden, während er auf den Ausfall eines Primärknotens wartet.

Der Sekundärknoten ist der einzige Knoten in der Konfiguration, der real mit dem ganzen Multihostspeicher verbunden ist.

Wenn ein Fehler in einem Primärknoten auftritt, führt Sun Cluster ein Failover der Ressourcen auf den Sekundärknoten durch, auf dem die Ressourcen bleiben, bis sie (entweder automatisch oder manuell) wieder auf den Primärknoten umgeschaltet werden.

Der Sekundärknoten muss immer über eine ausreichende CPU-Überkapazität verfügen, um die Last übernehmen zu können, falls einer der Primärknoten ausfällt.

Die nachstehende Abbildung stellt eine N+1-Konfiguration dar.

Abbildung 2–4 SPARC: N+1-Topologie

Abbildung: Die Erläuterung zur Grafik ergibt sich aus dem vorstehenden Kontext.

SPARC: N*N (Scalable)-Topologie für SPARC

Mit einer N*N-Topologie können alle gemeinsam genutzten Speichergeräte in einem Cluster mit allen Knoten im Cluster verbunden werden. Mit dieser Topologie können hoch verfügbare Anwendungen ohne Abfall der Dienstqualität von einem Knoten auf einen anderen umgeleitet werden. Bei einem Failover kann der neue Knoten über einen lokalen Pfad auf das Speichergerät zugreifen, anstatt den privaten Interconnect zu verwenden.

Die nachstehende Abbildung stellt eine N*N-Konfiguration dar.

Abbildung 2–5 SPARC: N*N-Topologie

Abbildung: Die Erläuterung zur Grafik ergibt sich aus dem vorstehenden Kontext.

x86: Sun Cluster-Topologien für x86

Eine Topologie ist das Verbindungsschema, nach dem die Cluster-Knoten mit den im Cluster verwendeten Speicherplattformen verbunden sind. Die Sun Cluster-Software unterstützt jede Topologie, die folgende Richtlinien einhält.

Sun Cluster schreibt für die Konfiguration eines Clusters keine spezifischen Topologien vor. Die Beschreibung der folgenden Geclusterte-Paare-Topologie soll das Vokabular zur Erläuterung eines Cluster-Verbindungsschemas erschließen. Es handelt sich um die einzig mögliche Topologie für Cluster aus x86-basierten Knoten. Diese Topologie stellt ein typisches Verbindungsschema dar.

Der folgende Abschnitt enthält eine Beispielgrafik der Topologie.

x86: Geclusterte-Paar-Topologie für x86

Eine Geclusterte-Paare-Topologie besteht aus zwei oder mehreren Knotenpaaren, die unter einem einzigen Cluster-Verwaltungs-Framework arbeiten. In dieser Konfiguration wird ein Failover nur zwischen einem Paar ausgeführt. Dabei sind jedoch alle Knoten über den Cluster-Interconnect verbunden und arbeiten unter der Sun Cluster-Softwaresteuerung. Mit dieser Topologie können Sie eine parallele Datenbankanwendung auf einem Paar und eine Failover- oder Scalable-Anwendung auf einem anderen Paar ausführen.

Die nachstehende Abbildung zeigt eine Geclusterte-Paare-Konfiguration.

Abbildung 2–6 x86: Geclustete-Paar-Topologie

Abbildung: Die Erläuterung zur Grafik ergibt sich aus dem vorstehenden Kontext.