Sun Cluster Konzepthandbuch für Solaris OS

Hardware- und Softwarekomponenten des Sun Cluster-Systems

Diese Informationen richten sich in erster Linie an Hardwaredienstleister. Diese Konzepte helfen Dienstleistern dabei, die Beziehungen zwischen den Hardwarekomponenten zu verstehen, bevor sie Cluster-Hardware installieren, konfigurieren oder warten. Auch für Cluster-Systemverwalter können diese Informationen als Hintergrund für das Installieren, Konfigurieren und Verwalten von Cluster-Software nützlich sein.

Ein Cluster besteht aus mehreren Hardwarekomponenten einschließlich:

Das Sun Cluster-System ermöglicht Ihnen das Kombinieren dieser Komponenten in einer Vielzahl von Konfigurationen. Diese Konfigurationen werden in den folgenden Abschnitten beschrieben.

Eine Darstellung einer Beispiel-Cluster-Konfiguration mit zwei Knoten finden Sie unter Sun Cluster-Hardwareumgebung in Sun Cluster Überblick für das Betriebssystem Solaris.

Cluster-Knoten

Ein Cluster-Knoten ist ein Computer, auf dem sowohl das Solaris-Betriebssystem als auch die Sun Cluster-Software ausgeführt wird. Ein Cluster-Knoten ist somit entweder ein aktuelles Mitglied des Clusters (ein Cluster-Mitglied) oder ein potenzielles Mitglied.

Cluster-Knoten sind im Allgemeinen an mindestens ein Multihost-Gerät angeschlossen. Nicht an Multihost-Geräte angeschlossene Knoten verwenden das Cluster-Dateisystem zum Zugriff auf die Multihost-Geräte. In einer Scalable-Dienste-Konfiguration können die Knoten beispielsweise Anfragen abwickeln, ohne direkt mit den Multihost-Geräten verbunden zu sein.

Daneben teilen sich Knoten in Konfigurationen paralleler Datenbanken den gleichzeitigen Zugriff auf alle Platten.

Alle Knoten im Cluster sind unter einem gemeinsamen Namen zusammengefasst - dem Cluster-Namen - der für den Cluster-Zugriff und die Cluster-Verwaltung verwendet wird.

Öffentliche Netzwerkadapter verbinden die Knoten mit den öffentlichen Netzwerken und ermöglichen den Zugriff der Clients auf den Cluster.

Die Mitglieder eines Clusters kommunizieren mit den anderen Knoten im Cluster über ein oder mehrere physisch unabhängige Netzwerke. Diese Gruppe physisch unabhängiger Netzwerke wird als Cluster-Interconnect bezeichnet.

Jeder Knoten im Cluster nimmt wahr, wenn ein anderer Knoten dem Cluster beitritt oder diesen verlässt. Daneben nimmt jeder Knoten sowohl die lokalen Ressourcen als auch die Ressourcen auf den anderen Cluster-Knoten wahr.

Knoten innerhalb desselben Clusters sollten eine vergleichbare Verarbeitungs-, Speicher- und E/A-Kapazität aufweisen, so dass ein Failover ohne nennenswerten Leistungsabfall möglich ist. Aufgrund der Möglichkeit eines Failover muss jeder Knoten genügend überschüssige Kapazität aufweisen, um die Aufgaben aller Knoten zu übernehmen, für die er als Sicherungs- oder Sekundärknoten festgelegt ist.

Jeder Knoten bootet sein eigenes, individuelles Root-Dateisystem (/).

Softwarekomponenten für Cluster-Hardwaremitglieder

Auf einem Knoten, der als Cluster-Mitglied eingesetzt werden soll, muss folgende Software installiert sein:

Die folgende Abbildung bietet einen Überblick über die Softwarekomponenten, die gemeinsam die Sun Cluster-Softwareumgebung bilden.

Abbildung 2–1 Beziehung zwischen den Sun Cluster-Softwarekomponenten

Abbildung: Die Erläuterung zur Grafik ergibt sich aus dem vorstehenden Kontext.

In Kapitel 4, Fragen und Antworten finden Sie Fragen und Antworten zu den Cluster-Mitgliedern.

Multihost-Geräte

Platten, die mit mehr als einem Knoten gleichzeitig verbunden werden können, sind Multihost-Geräte. Durch die Multihost-Speicherung sind die Platten in der Sun Cluster-Umgebung hoch verfügbar. Die Sun Cluster-Software erfordert die Multihost-Speicherung zur Schaffung eines Quorums in Clustern mit zwei Knoten. Cluster mit mehr als zwei Knoten erfordern keine Quorum-Geräte. Weitere Informationen zum Quorum finden Sie unter Quorum und Quorum-Geräte .

Multihost-Geräte haben folgende Eigenschaften.

Ein Datenträger-Manager sorgt bei gespiegelten oder RAID-5-Konfigurationen für die Datenredundanz der Multihost-Geräten. Zurzeit unterstützt Sun Cluster die Programme Solaris Volume Manager und VERITAS Volume Manager, die nur in SPARC-basierten Clustern als Datenträger-Manager verwendet werden können, sowie den RDAC RAID-5-Hardwarecontroller auf verschiedenen Hardware-RAID-Plattformen.

Die Kombination aus Multihost-Geräten und Plattenspiegelung sowie Striping schützt vor Knoten- und Einzelplattenversagen.

In Kapitel 4, Fragen und Antworten finden Sie Fragen und Antworten zur Multihost-Speicherung.

Multi-Initiator-SCSI

Dieser Abschnitt betrifft nur SCSI-Speichergeräte und keine Glasfaserkanal-Speicher, die für Multihost-Geräte eingesetzt werden.

Auf einem Standalone-Server steuert der Serverknoten die SCSI-Busaktivitäten durch die SCSI-Host-Adapterschaltung, die diesen Server mit einem bestimmten SCSI-Bus verbindet. Diese SCSI-Hostadapterschaltung wird als SCSI-Initiator bezeichnet. Die Schaltung initiiert alle Busaktivitäten für diesen SCSI-Bus. Die SCSI-Standardadresse der SCSI-Host-Adapter in Sun-Systemen ist 7.

Cluster-Konfigurationen teilen ihren Speicher unter Verwendung von Multihost-Geräten auf mehrere Serverknoten auf. Wenn der Cluster-Speicher aus einpolig geerdeten oder differenziellen SCSI-Geräten besteht, wird die Konfiguration als Multi-Initiator-SCSI bezeichnet. Wie aus dieser Terminologie hervorgeht, ist mehr als ein SCSI-Initiator auf dem SCSI-Bus vorhanden ist.

Die SCSI-Spezifikation erfordert, dass jedes Gerät auf einem SCSI-Bus eine eindeutige SCSI-Adresse aufweist. (Der Host-Adapter ist ebenfalls ein Gerät im SCSI-Bus.) Die Standard-Hardwarekonfiguration führt in einer Multi-Initiator-Umgebung zu einem Konflikt, weil alle SCSI-Host-Adapter standardmäßig auf 7 gesetzt werden.

Lassen Sie zur Beseitigung dieses Konflikts auf jedem SCSI-Bus einen der SCSI-Host-Adapter mit der SCSI-Adresse 7, und stellen Sie für die anderen Host-Adapter ungenutzte SCSI-Adressen ein. Eine zweckmäßige Planung schreibt vor, dass sowohl die derzeit ungenutzten als auch die potenziell ungenutzten Adressen zu den "ungenutzten" SCSI-Adressen gehören. Ein Beispiel für zukünftige, ungenutzte Adressen ist das Aufstocken des Speichers durch das Installieren neuer Laufwerke an freien Laufwerk-Steckplätzen.

In den meisten Konfigurationen ist 6 die verfügbare SCSI-Adresse für einen zweiten Host-Adapter.

Sie können die ausgewählten SCSI-Adressen für diese Host-Adapter ändern, indem Sie eines der folgenden Tools zum Einstellen der scsi-initiator-id-Eigenschaft verwenden:

Sie können diese Eigenschaft global für einen Knoten oder für jeden Host-Adapter einzeln einstellen. Anweisungen zum Festlegen einer eindeutigen scsi-initiator-id für jeden SCSI-Hostadapter finden Sie im Sun Cluster 3.0-3.1 With SCSI JBOD Storage Device Manual for Solaris OS.

Lokale Platten

Lokale Platten sind Platten, die nur mit einem einzigen Knoten verbunden sind. Lokale Platten sind daher nicht vor Knotenversagen geschützt (nicht hoch verfügbar). Alle Platten, einschließlich lokaler Platten, sind im globalen Namespace enthalten und als globale Geräte konfiguriert. Aus diesem Grund sind die Platten selbst von allen Cluster-Knoten aus sichtbar.

Sie können die Dateisysteme auf lokalen Platten für andere Knoten verfügbar machen, indem Sie sie unterhalb eines globalen Einhängpunkts platzieren. Versagt der Knoten, an dem derzeit eines dieser globalen Dateisysteme eingehängt ist, kann kein Knoten auf dieses Dateisystem zugreifen. Mithilfe eines Datenträger-Managers können Sie diese Platten spiegeln, so dass ein Fehler nicht dazu führt, dass kein Zugriff mehr auf diese Dateisysteme besteht; Datenträger-Manager schützen aber nicht vor Knotenversagen.

Im Abschnitt Globale Geräte finden Sie weitere Informationen zu globalen Geräten.

Wechseldatenträger

Wechselmedien wie Band- und CD-ROM-Laufwerke werden in einem Cluster unterstützt. Im Allgemeinen werden diese Geräte auf dieselbe Weise installiert, konfiguriert und betrieben wie in einer Umgebung ohne Cluster. Diese Geräte werden in Sun Cluster als globale Geräte konfiguriert, sodass von jedem Knoten im Cluster auf jedes Gerät zugegriffen werden kann. Informationen zur Installation und Konfiguration von Wechseldatenträgern finden Sie im Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS.

Im Abschnitt Globale Geräte finden Sie weitere Informationen zu globalen Geräten.

Cluster-Interconnect

Der Cluster-Interconnect ist die reale Konfiguration der Geräte, die für die Übertragung von Cluster-privaten Kommunikationen und Datendienstkommunikationen zwischen Cluster-Knoten eingesetzt wird. Der Interconnect wird umfassend für Cluster-interne Kommunikationen verwendet und kann dadurch die Leistung begrenzen.

Nur Cluster-Knoten können mit dem Cluster-Interconnect verbunden werden. Das Sun Cluster-Sicherheitsmodell setzt voraus, dass nur Cluster-Knoten physischen Zugriff auf den Cluster-Interconnect haben.

Alle Knoten müssen mit dem Cluster-Interconnect über mindestens zwei redundante, real unabhängige Netzwerke oder Pfade verbunden sein, um einen Single Point of Failure (Ausfallpunkt) zu vermeiden. Sie können mehrere real unabhängige Netzwerke (bis zu sechs) zwischen zwei beliebigen Knoten einrichten.

Der Cluster-Interconnect besteht aus drei Hardwarekomponenten: Adapter, Verbindungspunkten und Kabeln. Die nachstehende Liste beschreibt jede dieser Hardwarekomponenten.

In Kapitel 4, Fragen und Antworten finden Sie Fragen und Antworten zum Cluster-Interconnect.

Öffentliche Netzwerkschnittstellen

Die Verbindung der Clients mit dem Cluster erfolgt über die öffentlichen Netzwerkschnittstellen. Jede Netzwerkadapterkarte kann an ein oder mehrere öffentliche Netzwerke angeschlossen sein, je nachdem, ob die Karte mehrere Hardwareschnittstellen hat. Sie können Knoten mit mehreren öffentlichen Netzwerkschnittstellenkarten einrichten, die so konfiguriert sind, dass mehrere Karten aktiv sind und dadurch gegenseitig als Failover-Sicherung dienen. Wenn einer der Adapter ausfällt, wird die Internet Protocol (IP) Network Multipathing-Software aufgerufen, um die defekte Schnittstelle durch einen anderen Adapter in der Gruppe zu ersetzen.

Es gibt keine hardwarespezifischen Erwägungen im Zusammenhang mit der Cluster-Bildung für öffentliche Netzwerke.

In Kapitel 4, Fragen und Antworten finden Sie Fragen und Antworten zu öffentlichen Netzwerken.

Client-Systeme

Client-Systeme beinhalten Workstations oder andere Server, die über das öffentliche Netzwerk auf den Cluster zugreifen. Client-seitige Programme verwenden Daten oder andere Dienste, die von serverseitigen Anwendungen bereitgestellt werden, die im Cluster ausgeführt werden.

Client-Systeme sind nicht hoch verfügbar. Daten und Anwendungen auf dem Cluster sind hoch verfügbar.

In Kapitel 4, Fragen und Antworten finden Sie Fragen und Antworten zu Client-Systemen.

Konsolenzugriffsgeräte

Sie benötigen Konsolenzugriff auf alle Cluster-Knoten. Verwenden Sie eines der folgenden Geräte, um auf die Konsole zuzugreifen:

Bei Sun ist nur ein unterstützter Terminal-Konzentrator verfügbar, dessen Verwendung optional ist. Der Terminal-Konzentrator ermöglicht den Zugriff auf /dev/console auf jedem Knoten über ein TCP/IP-Netzwerk. Damit kann auf Konsolenebene von einer Remote-Workstation im Netzwerk aus auf jeden Knoten zugegriffen werden.

Der System Service Processor (SSP) ermöglicht den Konsolenzugriff für Sun Enterprise E1000-Server. Der SSP ist ein Computer in einem Ethernet-Netzwerk, der zur Unterstützung des Sun Enterprise E1000-Servers konfiguriert wurde. Der SSP dient als Verwaltungskonsole für den Sun Enterprise E1000-Server. Mit der Sun Enterprise E10000-Netzwerkkonsolenfunktion kann jede Workstation im Netzwerk eine Host-Konsolensitzung öffnen.

Weitere Möglichkeiten für den Konsolenzugriff bieten Terminal-Konzentratoren, der tip(1)-Zugriff über den seriellen Anschluss eines anderen Knotens sowie Terminals ohne Verarbeitungsfunktionen. Sie können Tastaturen und Monitore von SunTM oder andere Geräte für den seriellen Port verwenden, wenn Ihr Hardwaredienstleister diese unterstützt.

Verwaltungskonsole

Als Verwaltungskonsole für den aktiven Cluster können Sie eine dedizierte UltraSPARC®-Workstation oder einen Sun Fire V65x-Server verwenden. In der Regel installieren Sie auf der Verwaltungskonsole Verwaltungssoftware wie das Cluster Control Panel (CCP) und das Sun Cluster-Modul für das Sun Management Center-Produkt (ausschließlich für die Verwendung mit SPARC-basierten Clustern). Mit cconsole im CCP können Sie mehr als eine Knotenkonsole gleichzeitig verbinden. Weitere Informationen zur Verwendung des CCP finden Sie in Kapitel 1, Einführung in die Verwaltung von Sun Cluster in Sun Cluster Handbuch Systemverwaltung für Solaris OS.

Die Verwaltungskonsole ist kein Cluster-Knoten. Sie setzen die Verwaltungskonsole für den Remote-Zugriff auf Cluster-Knoten entweder über öffentliche Netzwerke oder optional über einen netzwerkbasierten Terminal-Konzentrator ein. Wenn Ihr Cluster die Sun Enterprise E10000-Plattform umfasst, müssen Sie sich über die Verwaltungskonsole der SSP anmelden und über den Befehl netcon(1M) eine Verbindung herstellen.

In der Regel konfigurieren Sie die Knoten ohne Monitore. Anschließend greifen Sie an der Verwaltungskonsole über eine telnet-Sitzung auf die Konsole des Knotens zu. Die Verwaltungskonsole ist mit einem Terminal-Konzentrator und dieser wiederum mit dem seriellen Anschluss des Knotens verbunden. Bei einem Sun Enterprise E1000-Server stellen Sie die Verbindung über den System Service Processor her. Weitere Informationen hierzu finden Sie unter Konsolenzugriffsgeräte .

Sun Cluster erfordert keine dedizierte Verwaltungskonsole. Die Verwendung einer Verwaltungskonsole hätte jedoch folgende Vorteile:

In Kapitel 4, Fragen und Antworten finden Sie Fragen und Antworten zur Verwaltungskonsole.