Dieses Kapitel enthält Informationen zur Vorbereitung auf die Cluster-Verwaltung und die Verfahren zur Verwendung der Sun Cluster-Verwaltungstools.
So zeigen Sie die Sun Cluster-Version und die Versionsinformationen an,
So zeigen Sie konfigurierte Ressourcentypen, Ressourcengruppen und Ressourcen an,
Die hoch verfügbare Umgebung von Sun Cluster stellt sicher, dass kritische Anwendungen für Endbenutzer verfügbar sind. Der Systemverwalter muss dafür sorgen, dass Sun Cluster stabil und funktionsfähig ist.
Machen Sie sich mit den Informationen zur Planung im Sun Cluster 3.1 10/03 Handbuch Softwareinstallation und im Sun Cluster 3.1 10/03 Konzepthandbuch vertraut, bevor Sie Verwaltungsaufgaben in Angriff nehmen. Die Sun Cluster-Verwaltung ist in den folgenden Handbüchern nach Aufgaben gegliedert.
Standardaufgaben zur regelmäßigen, ggf. täglichen, Cluster-Pflege. Diese Aufgaben sind in diesem Handbuch beschrieben.
Datendienstaufgaben wie Installation, Konfiguration und Änderung von Eigenschaften. Diese Aufgaben sind im Sun Cluster 3.1 Data Service Planning and Administration Guide beschrieben.
Wartungsaufgaben wie das Hinzufügen oder Reparieren von Speicher- oder Netzwerkhardware. Diese Aufgaben sind im Sun Cluster Hardware Administration Manual for Solaris OS beschrieben.
Sie können die meisten Sun Cluster-Verwaltungsaufgaben während des Cluster-Betriebs durchführen; die Auswirkungen auf den Cluster-Betrieb bleiben auf einen Knoten beschränkt. Bei Verfahren, die ein Herunterfahren des ganzen Clusters erforderlich machen, sollten Sie die Ausfallzeit in verkehrsschwachen Zeiten planen, um die Auswirkungen auf das System so gering wie möglich zu halten. Wenn Sie ein Herunterfahren des Clusters oder eines Cluster-Knotens planen, sollten Sie die Benutzer rechtzeitig informieren.
Sie können Sun Cluster-Verwaltungsaufgaben entweder über eine grafische Benutzeroberfläche (Graphical User Interface, GUI) oder über die Befehlszeile ausführen. Der folgende Abschnitt gibt Ihnen einen Überblick über die Tools grafische Benutzeroberfläche und Befehlszeile.
Sun Cluster unterstützt zwei GUI-Tools (grafische Benutzeroberflächen), die Sie zur Ausführung verschiedener Verwaltungsaufgaben auf Ihrem Cluster einsetzen können. Diese GUI-Tools sind SunPlexTM-Manager und Sun Management Center. Weitere Informationen und Verfahren zur Konfiguration von SunPlex-Manager und Sun Management Center finden Sie in Kapitel 10. Spezifische Informationen zur Verwendung dieser Tools finden Sie in der Online-Hilfe zur jeweiligen Benutzeroberfläche.
Sie können die meisten Sun Cluster-Verwaltungsaufgaben interaktiv über das scsetup(1M)-Dienstprogramm erledigen. Wo immer möglich wird die Ausführung von Verwaltungsaufgaben in diesem Handbuch mit scsetup beschrieben.
Sie können folgende Elemente im Hauptmenü über das scsetup-Dienstprogramm verwalten.
Quorum
Ressourcengruppen
Cluster-Interconnect
Gerätegruppen und Datenträger
Private Hostnamen
Neue Knoten
Andere Cluster-Eigenschaften
Folgende Elemente des Ressourcengruppenmenüs können Sie über das scsetup-Dienstprogramm verwalten.
Erstellen einer Ressourcengruppe
Hinzufügen einer Netzwerkressource zu einer Ressourcengruppe
Hinzufügen einer Datendienstressource zu einer Ressourcengruppe
Online-bringen bzw. Offline-nehmen oder Switchover einer Ressourcengruppe
Aktivieren/Deaktivieren einer Ressource
Ändern der Eigenschaften einer Ressourcengruppe
Ändern der Eigenschaften einer Ressource
Entfernen einer Ressource aus einer Ressourcengruppe
Entfernen einer Ressourcengruppe
Löschen des Fehler-Flags stop_failed aus einer Ressource
Die Tabelle 1-1 enthält weitere Befehle, die Sie zur Verwaltung von Sun Cluster einsetzen können. Ausführlichere Informationen finden Sie in der Online-Dokumentation.
Tabelle 1–1 Sun Cluster-Befehle der Befehlszeilenschnittstelle
Befehl |
Beschreibung |
---|---|
Startet den Remote-Konsolenzugriff auf den Cluster. |
|
Schaltet die IP-Adressen von einem Adapter auf einen anderen Adapter in einer IPMP-Gruppe. |
|
Prüft und validiert die Sun Cluster-Konfiguration, um sicherzustellen, dass die Basiskonfiguration eines Clusters betriebsfähig ist. |
|
Aktualisiert eine Sun Cluster-Konfiguration. Die Option -p listet Cluster-Konfigurationsinformationen auf. |
|
Stellt einen Verwaltungszugriff auf die Geräte-ID-Konfiguration zur Verfügung. |
|
Führt das Verwaltungsskript für den Namensraum globaler Geräte aus. |
|
Installiert und konfiguriert die Sun Cluster-Software. Der Befehl kann interaktiv oder nicht interaktiv ausgeführt werden. Die Option -p zeigt Versions- und Packungsversionsinformationen zur Sun Cluster-Software an. |
|
Verwaltet die Registrierung von Ressourcentypen, die Erstellung von Ressourcengruppen und die Aktivierung von Ressourcen innerhalb einer Ressourcengruppe. Die Option -p zeigt Informationen zu den installierten Ressourcen, Ressourcengruppen und Ressourcentypen an. Hinweis – Bei den Namen von Ressourcentypen, Ressourcengruppen und Ressourceneigenschaftennamen braucht bei der Ausführung von scrgadm nicht zwischen Groß- und Kleinschreibung unterschieden zu werden. |
|
Führt das interaktive Cluster-Konfigurations-Dienstprogramm aus, das den scconf-Befehl und die dazugehörigen Optionen erzeugt. |
|
Fährt den gesamten Cluster herunter. |
|
Liefert einen Schnappschuss des Cluster-Status. |
|
Führt Änderungen aus, die sich auf den Masterstatus eines Knotens und auf den Zustand von Ressourcen- und Plattengerätegruppen auswirken. |
Außerdem können Sie noch weitere Befehle zur Verwaltung des Datenträger-Manager-Anteils von Sun Cluster einsetzen. Diese Befehle hängen vom spezifischen, in Ihrem Cluster verwendeten Datenträger-Manager ab, entweder Solstice DiskSuiteTM, VERITAS Volume Manager oder Solaris Volume ManagerTM.
Dieser Abschnitt beschreibt die vorbereitenden Schritte für die Verwaltung Ihres Clusters.
Dokumentieren Sie die für Ihren Standort einmaligen Hardwareelemente bei der Anpassung der Sun Cluster-Konfiguration. Beziehen Sie sich bei Änderungen oder Aktualisierungen Ihres Clusters auf Ihre Hardware-Dokumentation, um Verwaltungsarbeit zu sparen. Das Beschriften von Kabeln und Verbindungen zwischen den verschiedenen Cluster-Komponenten kann die Verwaltung ebenfalls vereinfachen.
Verringern Sie die Zeit, die ein fremder Kundendienst für die Wartung des Clusters benötigt, indem Sie Ihre ursprüngliche Cluster-Konfiguration und die nachfolgenden Änderungen aufzeichnen.
Sie können eine dedizierte SPARC-Workstation, die als Verwaltungskonsole bezeichnet wird, zur Verwaltung des aktiven Clusters verwenden. In der Regel werden die Tools Cluster-Steuerbereich (CCP) und grafische Benutzeroberfläche (GUI) auf der Verwaltungskonsole installiert und ausgeführt. Weitere Informationen zu CCP finden Sie unter So melden Sie sich bei Sun Cluster remote an. Anweisungen zum Installieren der GUI-Tools Sun Management Center und SunPlex-Manager finden Sie im Sun Cluster 3.1 10/03 Handbuch Softwareinstallation.
Die Verwaltungskonsole ist kein Cluster-Knoten. Die Verwaltungskonsole wird für den Remote-Zugriff auf die Cluster-Knoten über das öffentliche Netzwerk oder über einen netzwerkbasierten Terminal-Konzentrator eingesetzt.
Wenn Ihr Cluster aus einem Sun EnterpriseTM 10000-Server besteht, müssen Sie sich von der Verwaltungskonsole aus beim System Service Processor (SSP) anmelden. Stellen Sie die Verbindung mit dem netcon(1M)-Befehl her. Die Standard-Methode für eine Verbindung mit einer Domäne von Sun Enterprise 10000 mit netcon verwendet die Netzwerkschnittstelle. Wenn das Netzwerk nicht zugänglich ist, können Sie netcon auf “exklusiven” Modus einstellen, indem Sie die Option -f verwenden. Sie können auch während einer normalen netcon-Sitzung ~* senden. Bei beiden vorstehenden Lösungen können Sie auf die serielle Schnittstelle umschalten, wenn das Netzwerk unerreichbar wird. Weitere Informationen finden Sie unter netcon (1M).
Sun Cluster benötigt zwar keine dedizierte Verwaltungskonsole, aber diese hat folgende Vorteile:
Sie ermöglicht eine zentralisierte Cluster-Verwaltung durch das Gruppieren von Konsolen- und Verwaltungstools auf demselben Rechner.
Sie sorgt für eine potenziell schnellere Problemlösung durch Enterprise Services oder Ihren Kundendienst.
Sichern Sie Ihren Cluster regelmäßig. Sun Cluster stellt zwar eine hoch verfügbare Umgebung mit gespiegelten Kopien der Daten auf Speichergeräten zur Verfügung, aber Sun Cluster ist kein Ersatz für regelmäßige Sicherungen. Sun Cluster kann beim Auftreten mehrerer Fehler weiterarbeiten, schützt allerdings nicht vor Benutzer- oder Programmfehlern oder vor schweren Ausfällen. Deswegen müssen Sie ein Sicherungsverfahren zum Schutz gegen Datenverlust einrichten.
Die folgenden Informationen sollten zum Inhalt Ihrer Sicherungskopien gehören.
Alle Dateisystempartitionen,
Alle Datenbankdaten, wenn Sie DBMS-Datendienste ausführen,
Die Plattenpartitionsinformation für alle Cluster-Platten,
Die md.tab-Datei, wenn Sie Solstice DiskSuite/Solaris Volume Manager zur Datenträgerverwaltung verwenden.
Tabelle 1–2 stellt einen Ausgangspunkt für die Verwaltung des Clusters zur Verfügung.
Tabelle 1–2 Sun Cluster 3.1-Verwaltungstools
Schritt |
Tool |
Dokumentation |
---|---|---|
Remotes Anmelden beim Cluster |
Verwenden Sie den ccp-Befehl zum Starten des Cluster-Steuerbereichs (CCP). Wählen Sie dann eines der folgenden Symbole aus: cconsole(1M), crlogin(1M) oder ctelnet(1M). | |
Interaktives Konfigurieren des Clusters |
Starten Sie das scsetup(1M)-Dienstprogramm. | |
Anzeigen von Sun Cluster-Versionsnummer und Versionsinformationen |
Verwenden Sie den scinstall(1M)-Befehl mit der Option -p oder -pv. |
So zeigen Sie die Sun Cluster-Version und die Versionsinformationen an. |
Anzeigen der installierten Ressourcen, Ressourcengruppen und Ressourcentypen Hinweis – Bei den Namen von Ressourcentypen, Ressourcengruppen und Ressourceneigenschaften braucht bei der Ausführung von scrgadm nicht zwischen Groß- und Kleinschreibung unterschieden zu werden. |
Verwenden Sie den scrgadm(1M) -p-Befehl. |
So zeigen Sie konfigurierte Ressourcentypen, Ressourcengruppen und Ressourcen an. |
Grafisches Überwachen der Cluster-Komponenten |
Verwenden Sie SunPlex-Manager oder das Sun Cluster-Modul für Sun Management Center. |
Online-Hilfe zu SunPlex-Manager oder zum Sun Cluster-Modul für Sun Management Center. |
Grafisches Verwalten einiger Cluster-Komponenten |
Verwenden Sie SunPlex-Manager oder das Sun Cluster-Modul für Sun Management Center. |
Online-Hilfe zu SunPlex-Manager oder zum Sun Cluster-Modul für Sun Management Center. |
Prüfen des Status von Cluster-Komponenten |
Verwenden Sie den scstat(1M)-Befehl. | |
Prüfen des Status der IPMP-Gruppen im öffentlichen Netzwerk |
Verwenden Sie den scstat(1M)-Befehl mit der Option -i. | |
Anzeigen der Cluster-Konfiguration |
Verwenden Sie den scconf(1M) -pBefehl. | |
Prüfen von globalen Einhängepunkten |
Verwenden Sie den sccheck(1M)-Befehl. | |
Anzeigen von Sun Cluster-Systemmeldungen |
Prüfen Sie die /var/adm/messages-Datei. |
Solaris 9 System Administrator Collection“Viewing System Messages” in System Administration Guide: Advanced Administration. |
Überwachen des Status von Solstice DiskSuite |
Verwenden Sie die metastat-Befehle. |
Solstice DiskSuite/Solaris Volume Manager-Dokumentation. |
Überwachen des Status von VERITAS Volume Manager unter Solaris 8 |
Verwenden Sie den Befehl vxstat oder vxva. |
VERITAS Volume Manager-Dokumentation. |
Überwachen des Status von Solaris Volume Manager unter Solaris 9 |
Verwenden Sie den svmstat-Befehl. |
Der Cluster-Steuerbereich (CCP) stellt einen Startblock für die Tools von cconsole(1M), crlogin(1M) und ctelnet(1M) zur Verfügung. Alle drei Tools starten eine Mehr-Fenster-Verbindung zu einem Satz angegebener Knoten. Diese Mehr-Fenster-Verbindung umfasst ein Host-Fenster für jeden der angegebenen Knoten und ein gemeinsames Fenster. Eine Eingabe im gemeinsamen Fenster wird an alle anderen Fenster gesendet, so dass Sie Befehle auf allen Knoten des Clusters gleichzeitig ausführen können. Weitere Informationen finden Sie in der Online-Dokumentation unter ccp(1M) und cconsole(1M).
Prüfen Sie, ob die folgenden Voraussetzungen erfüllt sind, bevor Sie CCP starten.
Installieren Sie das SUNWccon-Paket auf der Verwaltungskonsole.
Stellen Sie sicher, dass die PATH-Variable in der Verwaltungskonsole das Sun Cluster-Verzeichnis “Extras”, /opt/SUNWcluster/bin und /usr/cluster/bin enthält. Sie können mit der Einstellung der $CLUSTER_HOME-Umgebungsvariablen einen alternativen Speicherort für das Verzeichnis “Extras” angeben.
Konfigurieren Sie die Dateien Cluster, serialports und nsswitch.conf, wenn Sie einen Terminal-Konzentrator verwenden. Bei den Dateien kann es sich sowohl um /etc-Dateien als auch NIS/NIS+-Datenbanken handeln. Weitere Informationen finden Sie unter clusters(4) und unter serialports(4).
Stellen Sie fest, ob Sie eine Sun Enterprise 10000-Server-Plattform verwenden.
Wenn nein, gehen Sie zu Schritt 3.
Wenn ja, melden Sie sich beim System Service Processor (SSP) an und stellen die Verbindung mit dem netcon-Befehl her. Nachdem die Verbindung hergestellt wurde, drücken Sie Umschalt~@, um die Konsole freizuschalten und Schreibzugriff zu erhalten.
Starten Sie den CCP-Startblock.
Geben Sie an der Verwaltungskonsole folgenden Befehl ein:
# ccp Cluster-Name |
Der CCP-Startblock wird angezeigt.
Klicken Sie wahlweise auf eines der Symbole für cconsole, crlogin oder ctelnet im CCP-Startblock, um eine Remote-Sitzung mit dem Cluster zu starten.
Sie können die cconsole-, crlogin- oder ctelnet-Sitzungen auch von der Befehlszeile aus starten.
Mit dem scsetup(1M)-Dienstprogramm können Sie das Quorum, die Ressourcengruppe, den Cluster-Transport, den privaten Hostnamen, die Gerätegruppe und neue Knotenoptionen für den Cluster interaktiv konfigurieren.
Melden Sie sich bei einem beliebigen Cluster-Knoten als Superbenutzer an.
Starten Sie das scsetup-Dienstprogramm.
# scsetup |
Das Hauptmenü wird angezeigt.
Treffen Sie Ihre Konfigurationsauswahl im Menü. Befolgen Sie die Anweisungen auf dem Bildschirm, um die Aufgabe zu beenden.
Weitere Informationen finden Sie in der Online-Hilfe zu scsetup.
Um diese Verfahren durchzuführen, müssen Sie nicht als Superbenutzer angemeldet sein.
Anzeigen der Sun Cluster-Korrekturversionsnummern.
Sun Cluster-Update-Versionen werden durch die Hauptprodukt-Korrekturversionsnummer und die Aktualisierungsversion identifiziert.
% showrev -p |
Anzeigen der Sun Cluster-Versionsnummer und der Versionszeichenketten für alle Sun Cluster-Pakete.
% scinstall -pv |
Das nachstehende Beispiel zeigt die Versionsnummer des Clusters an.
% showrev -p | grep 110648 Korrekturversion: 110648-05 Veraltet: Erfordert: Inkompatibel: Pakete: |
Das nachstehende Beispiel zeigt die Versionsinformationen zum Cluster und die Versionsinformationen für alle Pakete an.
% scinstall -pv SunCluster 3.1 SUNWscr: 3.1.0,REV=2000.10.01.01.00 SUNWscdev: 3.1.0,REV=2000.10.01.01.00 SUNWscu: 3.1.0,REV=2000.10.01.01.00 SUNWscman: 3.1.0,REV=2000.10.01.01.00 SUNWscsal: 3.1.0,REV=2000.10.01.01.00 SUNWscsam: 3.1.0,REV=2000.10.01.01.00 SUNWscvm: 3.1.0,REV=2000.10.01.01.00 SUNWmdm: 4.2.1,REV=2000.08.08.10.01 |
Für dieses Verfahren können Sie auch die grafische Benutzeroberfläche von SunPlex-Manager verwenden. Weitere Informationen finden Sie in Kapitel 10. Weitere Informationen finden Sie in der Online-Hilfe zu SunPlex-Manager.
Um dieses Verfahren durchzuführen, müssen Sie nicht als Superbenutzer angemeldet sein.
Anzeigen der konfigurierten Ressourcentypen, Ressourcengruppen und Ressourcen des Clusters.
% scrgadm -p |
Das nachstehende Beispiel zeigt die Ressourcentypen (RT Name), Ressourcengruppen (RG Name) und Ressourcen (RS Name) an, die für den Cluster schost konfiguriert sind.
% scrgadm -p RT-Name: SUNW.SharedAddress RT Description: HA Shared Address Resource Type RT Name: SUNW.LogicalHostname RT Description: Logical Hostname Resource Type RG Name: schost-sa-1 RG Description: RS Name: schost-1 RS Description: RS Type: SUNW.SharedAddress RS Resource Group: schost-sa-1 RG Name: schost-lh-1 RG Description: RS Name: schost-3 RS Description: RS Type: SUNW.LogicalHostname RS Resource Group: schost-lh-1 |
Für dieses Verfahren können Sie auch die grafische Benutzeroberfläche von SunPlex-Manager verwenden. Weitere Informationen finden Sie in der Online-Hilfe zu SunPlex-Manager.
Um dieses Verfahren durchzuführen, müssen Sie nicht als Superbenutzer angemeldet sein.
Prüfen des Status von Cluster-Komponenten.
% scstat -p |
Das nachstehende Beispiel gibt einen Einblick in die Statusinformationen für Cluster-Komponenten, die von scstat(1M) zurückgegeben werden.
% scstat -p -- Cluster-Knoten -- Knotenname Status --------- ------ Cluster-Knoten: phys-schost-1 Online Cluster-Knoten: phys-schost-2 Online Cluster-Knoten: phys-schost-3 Online Cluster-Knoten: phys-schost-4 Online ------------------------------------------------------------------ -- Cluster-Transportpfade -- Endpunkt Endpunkt Status -------- -------- ------ Transportpfad: phys-schost-1:qfe1 phys-schost-4:qfe1 Path online Transportpfad: phys-schost-1:hme1 phys-schost-4:hme1 Path online ... ------------------------------------------------------------------ -- Quorum-Zusammenfassung -- Mögliche Quorum-Stimmen: 6 Benötigte Quorum-Stimmen: 4 Vorhandene Quorum-Stimmen: 6 -- Quorum-Stimmen nach Knoten -- Knotenname Vorhanden Möglich Status --------- ------- -------- ------ Knotenstimmen: phys-schost-1 1 1 Online Knotenstimmen: phys-schost-2 1 1 Online ... -- Quorum-Stimmen nach Gerät -- Gerätename Vorhanden Möglich Status ----------- --------- -------- ------ Gerätestimmen: /dev/did/rdsk/d2s2 1 1 Online Gerätestimmen: /dev/did/rdsk/d8s2 1 1 Online ... -- Gerätegruppenserver -- Gerätegruppe Primärknoten Sekundärknoten ------------ ------------ -------------- Gerätegruppenserver: rmt/1 - - Gerätegruppenserver: rmt/2 - - Gerätegruppenserver: schost-1 phys-schost-2 phys-schost-1 Gerätegruppenserver: schost-3 - - -- Gerätegruppenstatus -- Gerätegruppe Status ------------ ------ Gerätegruppenstatus: rmt/1 Offline Gerätegruppenstatus: rmt/2 Offline Gerätegruppenstatus: schost-1 Online Gerätegruppenstatus: schost-3 Offline ------------------------------------------------------------------ -- Ressourcengruppen und Ressourcen -- Gruppenname Ressourcen ----------- ---------- Ressourcen: test-rg test_1 Ressourcen: real-property-rg - Ressourcen: failover-rg - Ressourcen: descript-rg-1 - ... -- Ressourcengruppen -- Gruppenname Knotenname Zustand ---------- --------- ----- Gruppe: test-rg phys-schost-1 Offline Gruppe: test-rg phys-schost-2 Offline ... -- Ressourcen -- Ressourcenname Knotenname Zustand Statusmeldung ------------- ------------- ------- -------------- Ressource: test_1 phys-schost-1 Offline Offline Ressource: test_1 phys-schost-2 Offline Offline ----------------------------------------------------------------- -- IPMP-Gruppen -- Knotenname Gruppe Zustand Adapter Status --------- ------- ------ ------- ------ IPMP-Gruppe: phys-schost-1 sc_ipmp0 Online qfe1 Online IPMP-Gruppe: phys-schost-2 sc_ipmp0 Online qfe1 Online ------------------------------------------------------------------ |
Für dieses Verfahren können Sie auch die grafische Benutzeroberfläche von SunPlex-Manager verwenden. Weitere Informationen finden Sie in der Online-Hilfe zu SunPlex-Manager.
Um dieses Verfahren durchzuführen, müssen Sie nicht als Superbenutzer angemeldet sein.
Verwenden Sie den scstat(1M)-Befehl, um den Status der IPMP-Gruppen zu prüfen.
Das nachstehende Beispiel gibt Einblick in die Statusinformationen für Cluster-Komponenten, die von scstat -i zurückgegeben werden.
% scstat -i ----------------------------------------------------------------- -- IPMP-Gruppen -- Knotenname Gruppe Status Adapter Status --------- ----- ------ ------- ------ IPMP-Gruppe: phys-schost-1 sc_ipmp1 Online qfe2 Online IPMP-Gruppe: phys-schost-1 sc_ipmp0 Online qfe1 Online IPMP-Gruppe: phys-schost-2 sc_ipmp1 Online qfe2 Online IPMP-Gruppe: phys-schost-2 sc_ipmp0 Online qfe1 Online ------------------------------------------------------------------ |
Für dieses Verfahren können Sie auch die grafische Benutzeroberfläche von SunPlex-Manager verwenden. Weitere Informationen finden Sie in der Online-Hilfe zu SunPlex-Manager.
Um dieses Verfahren durchzuführen, müssen Sie nicht als Superbenutzer angemeldet sein.
Anzeigen der Cluster-Konfiguration
% scconf -p |
Verwenden Sie die Verbose-Optionen, um mit dem scconf-Befehl weitere Informationen anzuzeigen. Einzelheiten finden Sie in der Online-Dokumentation unter scconf(1M).
Das nachstehende Beispiel listet die Cluster-Konfiguration auf.
% scconf -p Cluster-Name: cluster-1, Cluster-ID: 0x3908EE1C Cluster-Installationsmodus: disabled Cluster privates Netz: 172.16.0.0 Cluster private Netzmaske: 255.255.0.0 Cluster neuer Knoten Authentisierung: unix Cluster neue Knotenliste: <NULL - Jeden Knoten zulassen> Cluster-Knoten: phys-schost-1 phys-schost-2 phys-schost-3 phys-schost-4 Cluster-Knotenname: phys-schost-1 Knoten-ID: 1 Knoten aktiviert: yes Privater Knoten-Hostname: clusternode1-priv Stimmenanzahl Quorum Knoten: 1 Knotenreservierungsschlüssel: 0x3908EE1C00000001 Knotentransportadapter: hme1 qfe1 qfe2 Knotentransportadapter: hme1 Adapter aktiviert: yes Adaptertransporttyp: dlpi Adaptereigenschaft: device_name=hme Adaptereigenschaft: device_instance=1 Adaptereigenschaft: dlpi_heartbeat_timeout=10000 ... Cluster-Transportverbindungspunkte: hub0 hub1 hub2 Cluster-Transportverbindungspunkt: hub0 Verbindungspunkt aktiviert: yes Verbindungspunkttyp: switch Verbindungspunkt-Port-Namen: 1 2 3 4 ... Verbindungspunkt-Port: 1 Port aktiviert: yes Verbindungspunkt-Port: 2 Port aktiviert: yes ... Cluster-Transportkabel Endpunkt Endpunkt Zustand -------- -------- ------- Transportkabel: phys-schost-1:hme1@0 hub0@1 Enabled Transportkabel: phys-schost-1:qfe1@0 hub1@1 Enabled Transportkabel: phys-schost-1:qfe2@0 hub2@1 Enabled Transportkabel: phys-schost-2:hme1@0 hub0@2 Enabled ... Quorum-Geräte: d2 d8 Quorum-Gerätename: d2 Quorum-Gerätestimmen: 1 Quorum-Gerät aktiviert: yes Quorum-Gerätenamen: /dev/did/rdsk/d2s2 Quorum-Gerätehosts (aktiviert): phys-schost-1 phys-schost-2 Quorum-Gerätehosts (deaktiviert): ... Gerätegruppenname: schost-3 Gerätegruppentyp: SVM Gerätegruppen-Failback aktiviert: no Gerätegruppen-Knotenliste: phys-schost-3, phys-schost-4 Plattensatzname: schost-3 |
Der sccheck(1M)-Befehl führt eine Reihe von Prüfungen zur Validierung der Basiskonfiguration aus, die für einen einwandfreien Cluster-Betrieb erforderlich ist. Wenn keine Prüfung fehlschlägt, kehrt sccheck zur Shell-Eingabeaufforderung zurück. Wenn eine Prüfung fehlschlägt, erstellt sccheck im angegebenen oder im Standard-Ausgabeverzeichnis einen entsprechenden Bericht. Wenn Sie sccheck auf mehr als einem Knoten ausführen, erstellt sccheck einen Bericht für jeden Knoten und einen Bericht für die Prüfungen auf mehreren Knoten.
Der sccheck-Befehl wird in zwei Schritten ausgeführt: Sammeln und Analysieren von Daten. Das Sammeln von Daten kann je nach Systemkonfiguration zeitaufwändig sein. Sie können sccheck im Verbose-Modus mit dem -v1-Flag aufrufen, um Fortschrittsmeldungen zu drucken, oder das -v2-Flag für die Ausführung von sccheck auf Hoch-Verbose-Modus einstellen; damit werden insbesondere während der Sammlung der Daten ausführlichere Fortschrittsmeldungen ausgegeben.
Führen Sie sccheck nach einem Verwaltungsverfahren aus, das möglicherweise zu Änderungen an Geräten, Datenträgerverwaltungs-Komponenten oder der Sun Cluster-Konfiguration geführt hat.
Melden Sie sich bei einem beliebigen Cluster-Knoten als Superbenutzer an.
% su |
Überprüfen Sie die Cluster-Konfiguration.
# sccheck |
Das nachstehende Beispiel zeigt die Ausführung von sccheck im Verbose-Modus auf den Knoten phys-schost-1 und phys-schost-2 ohne Fehler bei den Prüfschritten.
# sccheck -v1 -h phys-schost-1,phys-schost-2 sccheck: Explorer-Daten und Knotenbericht werden von phys-schost-1 angefordert. sccheck: Explorer-Daten und Knotenbericht werden von phys-schost-2 angefordert. sccheck: phys-schost-1: Explorer beendet. sccheck: phys-schost-1: Prüfungen einzelner Knoten werden gestartet. sccheck: phys-schost-1: Prüfungen einzelner Knoten wurden beendet. sccheck: phys-schost-2: Explorer beendet. sccheck: phys-schost-2: Prüfungen einzelner Knoten werden gestartet. sccheck: phys-schost-2: Prüfungen einzelner Knoten wurden beendet. sccheck: Prüfungen mehrerer Knoten werden gestartet. sccheck: Prüfungen mehrerer Knoten wurden beendet. # |
Das nachstehende Beispiel zeigt den Knoten phys-schost-2 im Cluster suncluster, auf dem der Einhängepunkt /global/phys-schost-1 fehlt. Die Berichte werden im Ausgabeverzeichnis /var/cluster/sccheck/myReports/ erstellt.
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Explorer-Daten und Knotenbericht werden von phys-schost-1 angefordert. sccheck: Explorer-Daten und Knotenbericht werden von phys-schost-2 angefordert. sccheck: phys-schost-1: Explorer beendet. sccheck: phys-schost-1: Prüfungen einzelner Knoten werden gestartet. sccheck: phys-schost-1: Prüfungen einzelner Knoten wurden beendet. sccheck: phys-schost-2: Explorer beendet. sccheck: phys-schost-2: Prüfungen einzelner Knoten werden gestartet. sccheck: phys-schost-2: Prüfungen einzelner Knoten wurden beendet. sccheck: Prüfungen mehrerer Knoten werden gestartet. sccheck: Prüfungen mehrerer Knoten wurden beendet. sccheck: Mindestens eine Prüfung fehlgeschlagen. sccheck: Der höchste Schweregrad aller Prüfungsfehler war 3 (HOCH). sccheck: Berichte befinden sich in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK-ID : 3065 SEVERITY: HIGH FAILURE : Global filesystem /etc/vfstab entries ar not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
Der sccheck(1M)-Befehl umfasst Prüfungen, mit denen die /etc/vfstab-Datei auf Konfigurationsfehler beim Cluster-Dateisystem und den dazugehörigen Einhängepunkten untersucht werden.
Führen Sie sccheck nach Änderungen an der Cluster-Konfiguration aus, die Auswirkungen auf Geräte oder auf Datenträgerverwaltungskomponenten haben.
Melden Sie sich bei einem beliebigen Cluster-Knoten als Superbenutzer an.
% su |
Überprüfen Sie die Cluster-Konfiguration.
# sccheck |
Das nachstehende Beispiel zeigt den Knoten phys-schost-2 des Clusters suncluster, auf dem der Einhängepunkt /global/schost-1 fehlt. Die Berichte werden an das Ausgabeverzeichnis /var/cluster/sccheck/myReports/ gesendet.
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Explorer-Daten und Knotenbericht werden von phys-schost-1 angefordert. sccheck: Explorer-Daten und Knotenbericht werden von phys-schost-2 angefordert. sccheck: phys-schost-1: Explorer beendet. sccheck: phys-schost-1: Prüfungen einzelner Knoten werden gestartet. sccheck: phys-schost-1: Prüfungen einzelner Knoten wurden beendet. sccheck: phys-schost-2: Explorer beendet. sccheck: phys-schost-2: Prüfungen einzelner Knoten werden gestartet. sccheck: phys-schost-2: Prüfungen einzelner Knoten wurden beendet. sccheck: Prüfungen mehrerer Knoten werden gestartet. sccheck: Prüfungen mehrerer Knoten wurden beendet. sccheck: Mindestens eine Prüfung fehlgeschlagen. sccheck: Der höchste Schweregrad aller Prüfungsfehler war 3 (HOCH). sccheck: Berichte befinden sich unter /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |