Tabelle 1–2 stellt einen Anfang für die Verwaltung Ihres Clusters dar.
Tabelle 1–2 Sun Cluster 3.1 4/04 Verwaltungstools
Schritt |
Tool |
Dokumentation |
---|---|---|
Remotes Anmelden beim Cluster |
Verwenden Sie den ccp-Befehl zum Starten des Cluster-Steuerbereichs (CCP). Wählen Sie dann eines der folgenden Symbole aus: cconsole(1M), crlogin(1M), oder ctelnet(1M). | |
Interaktives Konfigurieren des Clusters |
Starten Sie das scsetup(1M)-Dienstprogramm. | |
Anzeigen von Sun Cluster-Versionsnummer und Versionsinformationen |
Verwenden Sie den scinstall(1M)-Befehl mit der Option -p oder -pv. |
So zeigen Sie die Sun Cluster-Version und die Versionsinformationen an |
Anzeigen der installierten Ressourcen, Ressourcengruppen und Ressourcentypen Hinweis – Bei den Namen von Ressourcentypen, Ressourcengruppen und Ressourceneigenschaften braucht bei der Ausführung von scrgadm nicht zwischen Groß- und Kleinschreibung unterschieden zu werden. |
Verwenden Sie den Befehl scrgadm(1M) -p. |
So zeigen Sie konfigurierte Ressourcentypen, Ressourcengruppen und Ressourcen an |
Grafisches Überwachen der Cluster-Komponenten |
Verwenden Sie SunPlex-Manager. |
Online-Hilfe von SunPlex-Manager |
Grafisches Verwalten einiger Cluster-Komponenten |
Verwenden Sie SunPlex-Manager oder das Sun Cluster-Modul für Sun Management Center (mit Sun Cluster nur für SPARC-basierte Systeme verfügbar). |
Online-Hilfe zu SunPlex-Manager oder zum Sun Cluster-Modul für Sun Management Center. |
Prüfen des Status von Cluster-Komponenten |
Verwenden Sie den scstat(1M)-Befehl. | |
Prüfen des Status der IPMP-Gruppen im öffentlichen Netzwerk |
Verwenden Sie den scstat(1M)-Befehl mit der -i-Option. | |
Anzeigen der Cluster-Konfiguration |
Verwenden Sie den scconf(1M) -p-Befehl. | |
Prüfen von globalen Einhängepunkten |
Verwenden Sie den sccheck(1M)-Befehl. | |
Anzeigen von Sun Cluster-Systemmeldungen |
Prüfen Sie die /var/adm/messages-Datei. |
Viewing System Messages in System Administration Guide: Advanced Administration unter System Administration:Advanced Administration |
Überwachen des Status von Solstice DiskSuite |
Verwenden Sie die metastat-Befehle. |
Solstice DiskSuite/Solaris Volume Manager-Dokumentation. |
Überwachen des Status von VERITAS Volume Manager unter Solaris 8 |
Verwenden Sie den vxstat- oder den vxva-Befehl. |
VERITAS Volume Manager-Dokumentation. |
Überwachen des Status von Solaris Volume Manager unter Solaris 9 |
Verwenden Sie den svmstat-Befehl. |
Cluster Control Panel (CCP) bietet ein Startfeld für die Tools cconsole(1M), crlogin(1M) und ctelnet(1M). Alle drei Tools starten eine Mehr-Fenster-Verbindung zu einem Satz angegebener Knoten. Diese Mehr-Fenster-Verbindung umfasst ein Host-Fenster für jeden der angegebenen Knoten und ein gemeinsames Fenster. Eine Eingabe im gemeinsamen Fenster wird an alle anderen Fenster gesendet, so dass Sie Befehle auf allen Knoten des Clusters gleichzeitig ausführen können. Weitere Informationen finden Sie in der Online-Dokumentation unter ccp(1M) und cconsole(1M).
Prüfen Sie, ob die folgenden Voraussetzungen erfüllt sind, bevor Sie CCP starten.
Installieren Sie das SUNWccon-Paket auf der Verwaltungskonsole.
Stellen Sie sicher, dass die PATH-Variable auf der Verwaltungskonsole das Sun Cluster-Toolverzeichnis /opt/SUNWcluster/bin, und /usr/cluster/bin enthält. Sie können ein anderes Verzeichnis für das Tools-Verzeichnis angeben, indem Sie die Umgebungsvariable $CLUSTER_HOME festlegen.
Konfigurieren Sie die Dateien clustes, serialports und nsswitch.conf, wenn Sie einen Terminal-Konzentrator verwenden. Bei den Dateien kann es sich sowohl um /etc-Dateien als auch NIS/NIS+-Datenbanken handeln. Weitere Informationen finden Sie unter clusters(4) und serialports(4).
Stellen Sie fest, ob Sie eine Sun Enterprise 10000-Server-Plattform verwenden.
Wenn nicht, fahren Sie mit Schritt 3 fort.
Wenn ja, melden Sie sich beim System Service Processor (SSP) an und stellen die Verbindung mit dem netcon-Befehl her. Nachdem die Verbindung hergestellt wurde, drücken Sie Umschalt~@, um die Konsole freizuschalten und Schreibzugriff zu erhalten.
Starten Sie den CCP-Startblock.
Geben Sie an der Verwaltungskonsole folgenden Befehl ein:
# ccp clustername |
Der CCP-Startblock wird angezeigt.
Klicken Sie wahlweise auf eines der Symbole für cconsole, crlogin oder ctelnet im CCP-Startblock, um eine Remote-Sitzung mit dem Cluster zu starten.
Sie können die cconsole-, crlogin- oder ctelnet-Sitzungen auch von der Befehlszeile aus starten.
Mit dem scsetup(1M)-Dienstprogramm können Sie das Quorum, die Ressourcengruppe, den Cluster-Transport, den privaten Hostnamen, die Gerätegruppe und neue Knotenoptionen für den Cluster interaktiv konfigurieren.
Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an.
Starten Sie das scsetup-Dienstprogramm.
# scsetup |
Das Hauptmenü wird angezeigt.
Treffen Sie Ihre Konfigurationsauswahl im Menü. Befolgen Sie die Anweisungen auf dem Bildschirm, um die Aufgabe zu beenden.
Weitere Informationen finden Sie in der Online-Hilfe zu scsetup.
Um dieses Verfahren durchzuführen, müssen Sie nicht als Superuser angemeldet sein.
Geben Sie folgenden Befehl ein:
% showrev -p |
Sun Cluster-Update-Versionen werden durch die Hauptprodukt-Korrekturversionsnummer und die Aktualisierungsversion identifiziert.
Im folgenden Beispiel werden Informationen über die Korrekturversion 110648-05 angezeigt.
% showrev -p | grep 110648 Patch: 110648-05 Obsoletes: Requires: Incompatibles: Packages: |
Um dieses Verfahren durchzuführen, müssen Sie nicht als Superuser angemeldet sein.
Geben Sie folgenden Befehl ein:
% scinstall -pv |
Mit diesem Befehl werden die Sun Cluster-Versionsnummer und Versionszeichenfolgen für alle Sun Cluster-Pakete angezeigt.
Das nachstehende Beispiel zeigt die Versionsinformationen zum Cluster und die Versionsinformationen für alle Pakete an.
% scinstall -pv SunCluster 3.1 SUNWscr: 3.1.0,REV=2000.10.01.01.00 SUNWscdev: 3.1.0,REV=2000.10.01.01.00 SUNWscu: 3.1.0,REV=2000.10.01.01.00 SUNWscman: 3.1.0,REV=2000.10.01.01.00 SUNWscsal: 3.1.0,REV=2000.10.01.01.00 SUNWscsam: 3.1.0,REV=2000.10.01.01.00 SUNWscvm: 3.1.0,REV=2000.10.01.01.00 SUNWmdm: 4.2.1,REV=2000.08.08.10.01 |
Für dieses Verfahren können Sie auch die grafische Benutzeroberfläche (GUI) von SunPlex-Manager verwenden. Weitere Informationen finden Sie in Kapitel 10, Verwaltung von Sun Cluster mithilfe der grafischen Benutzeroberflächen . Weitere Informationen finden Sie in der Online-Hilfe zu SunPlex-Manager.
Um dieses Verfahren durchzuführen, müssen Sie nicht als Superbenutzer angemeldet sein.
Anzeigen der konfigurierten Ressourcentypen, Ressourcengruppen und Ressourcen des Clusters.
% scrgadm -p |
Das nachstehende Beispiel zeigt die Ressourcentypen (RT Name), Ressourcengruppen (RG Name) und Ressourcen (RS Name) an, die für den Cluster schost konfiguriert sind.
% scrgadm -p RT Name: SUNW.SharedAddress RT Description: HA Shared Address Resource Type RT Name: SUNW.LogicalHostname RT Description: Logical Hostname Resource Type RG Name: schost-sa-1 RG Description: RS Name: schost-1 RS Description: RS Type: SUNW.SharedAddress RS Resource Group: schost-sa-1 RG Name: schost-lh-1 RG Description: RS Name: schost-3 RS Description: RS Type: SUNW.LogicalHostname RS Resource Group: schost-lh-1 |
Für dieses Verfahren können Sie auch die grafische Benutzeroberfläche (GUI) von SunPlex-Manager verwenden. Weitere Informationen finden Sie in der Online-Hilfe zu SunPlex-Manager.
Um dieses Verfahren durchzuführen, müssen Sie nicht als Superbenutzer angemeldet sein.
Prüfen des Status von Cluster-Komponenten.
% scstat -p |
Das folgende Beispiel gibt einen Einblick in die Statusinformationen für Cluster-Komponenten, die von scstat(1M) zurückgegeben werden.
% scstat -p -- Cluster Nodes -- Node name Status --------- ------ Cluster node: phys-schost-1 Online Cluster node: phys-schost-2 Online Cluster node: phys-schost-3 Online Cluster node: phys-schost-4 Online ------------------------------------------------------------------ -- Cluster Transport Paths -- Endpoint Endpoint Status -------- -------- ------ Transport path: phys-schost-1:qfe1 phys-schost-4:qfe1 Path online Transport path: phys-schost-1:hme1 phys-schost-4:hme1 Path online ... ------------------------------------------------------------------ -- Quorum Summary -- Quorum votes possible: 6 Quorum votes needed: 4 Quorum votes present: 6 -- Quorum Votes by Node -- Node Name Present Possible Status --------- ------- -------- ------ Node votes: phys-schost-1 1 1 Online Node votes: phys-schost-2 1 1 Online ... -- Quorum Votes by Device -- Device Name Present Possible Status ----------- ------- -------- ------ Device votes: /dev/did/rdsk/d2s2 1 1 Online Device votes: /dev/did/rdsk/d8s2 1 1 Online ... -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: rmt/1 - - Device group servers: rmt/2 - - Device group servers: schost-1 phys-schost-2 phys-schost-1 Device group servers: schost-3 - - -- Device Group Status -- Device Group Status ------------ ------ Device group status: rmt/1 Offline Device group status: rmt/2 Offline Device group status: schost-1 Online Device group status: schost-3 Offline ------------------------------------------------------------------ -- Resource Groups and Resources -- Group Name Resources ---------- --------- Resources: test-rg test_1 Resources: real-property-rg - Resources: failover-rg - Resources: descript-rg-1 - ... -- Resource Groups -- Group Name Node Name State ---------- --------- ----- Group: test-rg phys-schost-1 Offline Group: test-rg phys-schost-2 Offline ... -- Resources -- Resource Name Node Name State Status Message ------------- --------- ----- -------------- Resource: test_1 phys-schost-1 Offline Offline Resource: test_1 phys-schost-2 Offline Offline ----------------------------------------------------------------- -- IPMP Groups -- Node Name Group Status Adapter Status --------- ----- ------ ------- ------ IPMP Group: phys-schost-1 sc_ipmp0 Online qfe1 Online IPMP Group: phys-schost-2 sc_ipmp0 Online qfe1 Online ------------------------------------------------------------------ |
Für dieses Verfahren können Sie auch die grafische Benutzeroberfläche von SunPlex-Manager verwenden. Weitere Informationen finden Sie in der Online-Hilfe zu SunPlex-Manager.
Um dieses Verfahren durchzuführen, müssen Sie nicht als Superbenutzer angemeldet sein.
Verwenden Sie den scstat(1M)-Befehl, um den Status der IPMP-Gruppen zu prüfen.
Prüfen des Status von Cluster-Komponenten.
% scstat -i |
Das nachstehende Beispiel gibt Einblick in die Statusinformationen für Cluster-Komponenten, die von scstat -i zurückgegeben werden.
% scstat -i ----------------------------------------------------------------- -- IPMP Groups -- Node Name Group Status Adapter Status --------- ----- ------ ------- ------ IPMP Group: phys-schost-1 sc_ipmp1 Online qfe2 Online IPMP Group: phys-schost-1 sc_ipmp0 Online qfe1 Online IPMP Group: phys-schost-2 sc_ipmp1 Online qfe2 Online IPMP Group: phys-schost-2 sc_ipmp0 Online qfe1 Online ------------------------------------------------------------------ |
Für dieses Verfahren können Sie auch die grafische Benutzeroberfläche von SunPlex-Manager verwenden. Weitere Informationen finden Sie in der Online-Hilfe zu SunPlex-Manager.
Um dieses Verfahren durchzuführen, müssen Sie nicht als Superbenutzer angemeldet sein.
Anzeigen der Cluster-Konfiguration
% scconf -p |
Verwenden Sie die Verbose-Optionen, um mit dem scconf-Befehl weitere Informationen anzuzeigen. Detaillierte Informationen finden Sie in der Online-Dokumentation unter scconf(1M).
Das nachstehende Beispiel listet die Cluster-Konfiguration auf.
% scconf -p Cluster name: cluster-1 Cluster ID: 0x3908EE1C Cluster install mode: disabled Cluster private net: 172.16.0.0 Cluster private netmask: 192.168.0.0 Cluster new node authentication: unix Cluster new node list: <NULL - Allow any node> Cluster nodes: phys-schost-1 phys-schost-2 phys-schost-3 phys-schost-4 Cluster node name: phys-schost-1 Node ID: 1 Node enabled: yes Node private hostname: clusternode1-priv Node quorum vote count: 1 Node reservation key: 0x3908EE1C00000001 Node transport adapters: hme1 qfe1 qfe2 Node transport adapter: hme1 Adapter enabled: yes Adapter transport type: dlpi Adapter property: device_name=hme Adapter property: device_instance=1 Adapter property: dlpi_heartbeat_timeout=10000 ... Cluster transport junctions: hub0 hub1 hub2 Cluster transport junction: hub0 Junction enabled: yes Junction type: switch Junction port names: 1 2 3 4 ... Junction port: 1 Port enabled: yes Junction port: 2 Port enabled: yes ... Cluster transport cables Endpoint Endpoint State -------- -------- ----- Transport cable: phys-schost-1:hme1@0 hub0@1 Enabled Transport cable: phys-schost-1:qfe1@0 hub1@1 Enabled Transport cable: phys-schost-1:qfe2@0 hub2@1 Enabled Transport cable: phys-schost-2:hme1@0 hub0@2 Enabled ... Quorum devices: d2 d8 Quorum device name: d2 Quorum device votes: 1 Quorum device enabled: yes Quorum device name: /dev/did/rdsk/d2s2 Quorum device hosts (enabled): phys-schost-1 phys-schost-2 Quorum device hosts (disabled): ... Device group name: schost-3 Device group type: SVM Device group failback enabled: no Device group node list: phys-schost-3, phys-schost-4 Diskset name: schost-3 |
Der sccheck(1M)-Befehl führt eine Reihe von Prüfungen zur Validierung der Basiskonfiguration aus, die für einen einwandfreien Cluster-Betrieb erforderlich ist. Wenn keine Prüfung fehlschlägt, kehrt sccheck zur Shell-Eingabeaufforderung zurück. Wenn eine Prüfung fehlschlägt, erstellt sccheck im angegebenen oder im Standard-Ausgabeverzeichnis einen entsprechenden Bericht. Wenn Sie sccheck auf mehr als einem Knoten ausführen, erstellt sccheck einen Bericht für jeden Knoten und einen Bericht für die Prüfungen auf mehreren Knoten.
Der sccheck-Befehl wird in zwei Schritten ausgeführt: Sammeln und Analysieren von Daten. Das Sammeln von Daten kann je nach Systemkonfiguration zeitaufwändig sein. Sie können sccheck im Verbose-Modus mit dem -v1-Flag aufrufen, um Fortschrittsmeldungen zu drucken, oder das -v2-Flag für die Ausführung von sccheck auf Hoch-Verbose-Modus einstellen; damit werden insbesondere während der Sammlung der Daten ausführlichere Fortschrittsmeldungen ausgegeben.
Führen Sie sccheck nach einem Verwaltungsverfahren aus, das möglicherweise zu Änderungen an Geräten, Datenträgerverwaltungs-Komponenten oder der Sun Cluster-Konfiguration geführt hat.
Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an.
% su |
Überprüfen Sie die Cluster-Konfiguration.
# sccheck |
Das nachstehende Beispiel zeigt die Ausführung von sccheck im Verbose-Modus auf den Knoten phys-schost-1 und phys-schost-2 ohne Fehler bei den Prüfschritten.
# sccheck -v1 -h phys-schost-1,phys-schost-2 sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished # |
Das nachstehende Beispiel zeigt den Knoten phys-schost-2 im Cluster suncluster, auf dem der Einhängepunkt /global/phys-schost-1 fehlt. Die Berichte werden im Ausgabeverzeichnis /var/cluster/sccheck/myReports/ erstellt.
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # |
Der sccheck(1M)-Befehl umfasst Prüfungen, mit denen die /etc/vfstab-Datei nach Konfigurationsfehlern auf dem Cluster-Dateisystem und den globalen Einhägepunkten geprüft wird.
Führen Sie sccheck nach Änderungen an der Cluster-Konfiguration aus, die Auswirkungen auf Geräte oder auf Datenträgerverwaltungskomponenten haben.
Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an.
% su |
Überprüfen Sie die Cluster-Konfiguration.
# sccheck |
Das nachstehende Beispiel zeigt den Knoten phys-schost-2 des Clusters suncluster, auf dem der Einhängepunkt /global/schost-1 fehlt. Die Berichte werden im Ausgabeverzeichnis /var/cluster/sccheck/myReports/ erstellt.
# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports sccheck: Requesting explorer data and node report from phys-schost-1. sccheck: Requesting explorer data and node report from phys-schost-2. sccheck: phys-schost-1: Explorer finished. sccheck: phys-schost-1: Starting single-node checks. sccheck: phys-schost-1: Single-node checks finished. sccheck: phys-schost-2: Explorer finished. sccheck: phys-schost-2: Starting single-node checks. sccheck: phys-schost-2: Single-node checks finished. sccheck: Starting multi-node checks. sccheck: Multi-node checks finished. sccheck: One or more checks failed. sccheck: The greatest severity of all check failures was 3 (HIGH). sccheck: Reports are in /var/cluster/sccheck/myReports. # # cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 3065 SEVERITY : HIGH FAILURE : Global filesystem /etc/vfstab entries are not consistent across all Sun Cluster 3.x nodes. ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across all nodes in this cluster. Analysis indicates: FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'. RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the filesystem(s) in question. ... # # cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt ... =================================================== = ANALYSIS DETAILS = =================================================== ------------------------------------ CHECK ID : 1398 SEVERITY : HIGH FAILURE : An unsupported server is being used as a Sun Cluster 3.x node. ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node. Only servers that have been qualified with Sun Cluster 3.x are supported as Sun Cluster 3.x nodes. RECOMMEND: Because the list of supported servers is always being updated, check with your Sun Microsystems representative to get the latest information on what servers are currently supported and only use a server that is supported with Sun Cluster 3.x. ... # |