Sun Cluster Handbuch Systemverwaltung für Solaris OS

Kapitel 1 Einführung in die Verwaltung von Sun Cluster

Dieses Kapitel enthält Informationen zur Vorbereitung auf die Cluster-Verwaltung und die Verfahren zur Verwendung der Sun Cluster-Verwaltungstools.

Überblick über die Verwaltung von Sun Cluster

Die hoch verfügbare Umgebung von Sun Cluster stellt sicher, dass kritische Anwendungen für Endbenutzer verfügbar sind. Der Systemverwalter muss dafür sorgen, dass Sun Cluster stabil und funktionsfähig ist.

Lesen Sie die Planungsinformationen im Sun Cluster Handbuch Softwareinstallation für Solaris OS und im Sun Cluster Konzepthandbuch für Solaris OS, bevor Sie mit den Verwaltungsaufgaben beginnen. Die Sun Cluster-Verwaltung ist in den folgenden Handbüchern nach Aufgaben gegliedert.

Sie können die meisten Sun Cluster-Verwaltungsaufgaben während des Cluster-Betriebs durchführen; die Auswirkungen auf den Cluster-Betrieb bleiben auf einen Knoten beschränkt. Bei Verfahren, die ein Herunterfahren des ganzen Clusters erforderlich machen, sollten Sie die Ausfallzeit in verkehrsschwachen Zeiten planen, um die Auswirkungen auf das System so gering wie möglich zu halten. Wenn Sie ein Herunterfahren des Clusters oder eines Cluster-Knotens planen, sollten Sie die Benutzer rechtzeitig informieren.

Funktionsbeschränkungen unter Solaris

Die folgenden Solaris OS-Funktionen werden in einer Sun Cluster-Konfiguration nicht unterstützt:

Sun Cluster-Dienst 

FMRI 

pnm 

svc:/system/cluster/pnm:Standard 

cl_event 

svc:/system/cluster/cl_event:Standard 

cl_eventlog 

svc:/system/cluster/cl_eventlog:Standard 

rpc_pmf 

svc:/system/cluster/rpc_pmf:Standard 

rpc_fed 

svc:/system/cluster/rpc_fed:Standard 

rgm 

svc:/system/cluster/rgm:Standard 

scdpm 

svc:/system/cluster/scdpm:Standard 

cl_ccra 

svc:/system/cluster/cl_ccra:Standard 

scsymon_srv 

svc:/system/cluster/scsymon_srv:Standard 

spm 

svc:/system/cluster/spm:Standard 

cl_svc_cluster_milestone 

svc:/system/cluster/cl_svc_cluster_milestone:Standard 

cl_svc_enable 

svc:/system/cluster/cl_svc_enable:Standard 

network-multipathing 

svc:/system/cluster/network-multipathing 

Verwaltungstools

Sie können Verwaltungsaufgaben auf Sun Cluster mithilfe der Grafischen Benutzeroberfläche (GUI) oder der Befehlszeile durchführen. Der folgende Abschnitt gibt Ihnen einen Überblick über die Tools grafische Benutzeroberfläche und Befehlszeile.

Grafische Benutzeroberfläche

Sun Cluster unterstützt GUI-Tools (grafische Benutzeroberflächen), die Sie zur Ausführung verschiedener Verwaltungsaufgaben auf Ihrem Cluster einsetzen können. Diese GUI-Tools sind SunPlexTM-Manager und Sun Management Center, letzteres nur, wenn Sie Sun Cluster in einem SPARC-basierten System einsetzen. In Kapitel 10, Verwaltung von Sun Cluster mithilfe der grafischen Benutzeroberflächen finden Sie weitere Informationen und Verfahren zur Konfiguration von SunPlex Manager und Sun Management Center. Spezifische Informationen zur Verwendung dieser Tools finden Sie in der Online-Hilfe zur jeweiligen Benutzeroberfläche.

Befehlszeilenschnittstelle

Sie können die meisten Sun Cluster-Verwaltungsaufgaben interaktiv über das Dienstprogrammscsetup(1M) ausführen. Wo immer möglich wird die Ausführung von Verwaltungsaufgaben in diesem Handbuch mit scsetup beschrieben.

Sie können folgende Elemente im Hauptmenü über das scsetup-Dienstprogramm verwalten.

Folgende Elemente des Ressourcengruppenmenüs können Sie über das scsetup-Dienstprogramm verwalten.

Table 1-1 lists other commands that you use to administer Sun Cluster. Ausführlichere Informationen finden Sie in der Online-Dokumentation.

Tabelle 1–1 Sun Cluster-Befehle der Befehlszeilenschnittstelle

Befehl 

Beschreibung 

ccp(1M)

Startet den Remote-Konsolenzugriff auf den Cluster. 

if_mpadm(1M)

Schaltet die IP-Adressen von einem Adapter auf einen anderen Adapter in einer IPMP-Gruppe. 

sccheck(1M)

Prüft und validiert die Sun Cluster-Konfiguration, um sicherzustellen, dass die Basiskonfiguration eines Clusters betriebsfähig ist. 

scconf(1M)

Aktualisiert eine Sun Cluster-Konfiguration. Die Option -p listet die Cluster-Konfigurationsinformationen auf.

scdidadm(1M)

Stellt einen Verwaltungszugriff auf die Geräte-ID-Konfiguration zur Verfügung. 

scgdevs(1M)

Führt das Verwaltungsskript für den Namensraum globaler Geräte aus. 

scinstall(1M)

Installiert und konfiguriert die Sun Cluster-Software. Der Befehl kann interaktiv oder nicht interaktiv ausgeführt werden. Die Option -p zeigt Versions- und Packungsversionsinformationen zur Sun Cluster-Software an.

scrgadm(1M)

Verwaltet die Registrierung von Ressourcentypen, die Erstellung von Ressourcengruppen und die Aktivierung von Ressourcen innerhalb einer Ressourcengruppe. Die Option -p zeigt Informationen zu den installierten Ressourcen, Ressourcengruppen und Ressourcentypen an.


Hinweis –

Bei den Namen von Ressourcentypen, Ressourcengruppen und Ressourceneigenschaften braucht bei der Ausführung von scrgadm nicht zwischen Groß- und Kleinschreibung unterschieden zu werden.


scsetup(1M)

Führt das interaktive Cluster-Konfigurations-Dienstprogramm aus, das den scconf-Befehl und die dazugehörigen Optionen erzeugt.

scshutdown(1M)

Fährt den gesamten Cluster herunter. 

scstat(1M)

Liefert einen Schnappschuss des Cluster-Status. 

scswitch(1M)

Führt Änderungen aus, die sich auf den Masterstatus eines Knotens und auf den Zustand von Ressourcen- und Plattengerätegruppen auswirken. 

Außerdem können Sie noch weitere Befehle zur Verwaltung des Datenträger-Manager-Anteils von Sun Cluster einsetzen. Diese Befehle hängen vom spezifischen, in Ihrem Cluster verwendeten Datenträger-Manager ab, entweder Solstice DiskSuiteTM, VERITAS Volume Manager oder Solaris Volume ManagerTM.

Vorbereiten der Cluster-Verwaltung

Dieser Abschnitt beschreibt die vorbereitenden Schritte für die Verwaltung Ihres Clusters.

Dokumentieren einer Sun Cluster-Hardwarekonfiguration

Dokumentieren Sie die für Ihren Standort einmaligen Hardwareelemente bei der Anpassung der Sun Cluster-Konfiguration. Beziehen Sie sich bei Änderungen oder Aktualisierungen Ihres Clusters auf Ihre Hardware-Dokumentation, um Verwaltungsarbeit zu sparen. Das Beschriften von Kabeln und Verbindungen zwischen den verschiedenen Cluster-Komponenten kann die Verwaltung ebenfalls vereinfachen.

Verringern Sie die Zeit, die ein fremder Kundendienst für die Wartung des Clusters benötigt, indem Sie Ihre ursprüngliche Cluster-Konfiguration und die nachfolgenden Änderungen aufzeichnen.

Arbeiten mit einer Verwaltungskonsole

Sie können eine dedizierte SPARC-Workstation, die als Verwaltungskonsole bezeichnet wird, zur Verwaltung des aktiven Clusters verwenden. In der Regel werden die Tools Cluster-Steuerbereich (CCP) und grafische Benutzeroberfläche (GUI) auf der Verwaltungskonsole installiert und ausgeführt. Weitere Informationen zu CCP finden Sie im Abschnitt So melden Sie sich bei Sun Cluster remote an. Anweisungen zum Installieren des Cluster-Steuerbereich-Moduls für die GUI-Tolls Sun Management Center und SunPlex-Manager finden Sie im Sun Cluster Handbuch Softwareinstallation für Solaris OS.

Die Verwaltungskonsole ist kein Cluster-Knoten. Die Verwaltungskonsole wird für den Remote-Zugriff auf die Cluster-Knoten über das öffentliche Netzwerk oder über einen netzwerkbasierten Terminal-Konzentrator eingesetzt.

Wenn Ihr SPARC-Cluster aus einem Sun Enterprise TM 10000-Server besteht, müssen Sie sich von der Verwaltungskonsole aus beim System Service Processor (SSP) anmelden. Stellen Sie eine Verbindung mit dem netcon.1M-Befehl her. Die Standard-Methode für eine Verbindung mit einer Domäne von Sun Enterprise 10000 mit netcon verwendet die Netzwerkschnittstelle. Wenn das Netzwerk nicht zugänglich ist, können Sie netcon auf "exklusiven" Modus einstellen, indem Sie die Option -f verwenden. Sie können auch während einer normalen netcon-Sitzung ~* senden. Bei beiden vorstehenden Lösungen können Sie auf die serielle Schnittstelle umschalten, wenn das Netzwerk unerreichbar wird.

Sun Cluster benötigt zwar keine dedizierte Verwaltungskonsole, aber diese hat folgende Vorteile:

Sichern des Clusters

Sichern Sie Ihren Cluster in regelmäßigen Abständen. Sun Cluster stellt zwar eine hoch verfügbare Umgebung mit gespiegelten Kopien der Daten auf Speichergeräten zur Verfügung, aber Sun Cluster ist kein Ersatz für regelmäßige Sicherungen. Sun Cluster kann beim Auftreten mehrerer Fehler weiterarbeiten, schützt allerdings nicht vor Benutzer- oder Programmfehlern oder vor schweren Ausfällen. Deswegen müssen Sie ein Sicherungsverfahren zum Schutz gegen Datenverlust einrichten.

Die folgenden Informationen sollten zum Inhalt Ihrer Sicherungskopien gehören.

Einleiten der Cluster-Verwaltung

Tabelle 1–2 stellt einen Anfang für die Verwaltung Ihres Clusters dar.

Tabelle 1–2 Sun Cluster 3.1 4/04 Verwaltungstools

Schritt 

Tool 

Dokumentation 

Remotes Anmelden beim Cluster 

Verwenden Sie den ccp-Befehl zum Starten des Cluster-Steuerbereichs (CCP). Wählen Sie dann eines der folgenden Symbole aus: cconsole(1M), crlogin(1M), oder ctelnet(1M).

So melden Sie sich bei Sun Cluster remote an

Interaktives Konfigurieren des Clusters 

Starten Sie das scsetup(1M)-Dienstprogramm.

So greifen Sie auf das scsetup-Dienstprogramm zu

Anzeigen von Sun Cluster-Versionsnummer und Versionsinformationen 

Verwenden Sie den scinstall(1M)-Befehl mit der Option -p oder -pv.

So zeigen Sie die Sun Cluster-Version und die Versionsinformationen an

Anzeigen der installierten Ressourcen, Ressourcengruppen und Ressourcentypen 


Hinweis –

Bei den Namen von Ressourcentypen, Ressourcengruppen und Ressourceneigenschaften braucht bei der Ausführung von scrgadm nicht zwischen Groß- und Kleinschreibung unterschieden zu werden.


Verwenden Sie den Befehl scrgadm(1M) -p.

So zeigen Sie konfigurierte Ressourcentypen, Ressourcengruppen und Ressourcen an

Grafisches Überwachen der Cluster-Komponenten 

Verwenden Sie SunPlex-Manager. 

Online-Hilfe von SunPlex-Manager 

Grafisches Verwalten einiger Cluster-Komponenten 

Verwenden Sie SunPlex-Manager oder das Sun Cluster-Modul für Sun Management Center (mit Sun Cluster nur für SPARC-basierte Systeme verfügbar). 

Online-Hilfe zu SunPlex-Manager oder zum Sun Cluster-Modul für Sun Management Center. 

Prüfen des Status von Cluster-Komponenten 

Verwenden Sie den scstat(1M)-Befehl.

So prüfen Sie den Status von Cluster-Komponenten

Prüfen des Status der IPMP-Gruppen im öffentlichen Netzwerk 

Verwenden Sie den scstat(1M)-Befehl mit der -i-Option.

So prüfen Sie den Status des öffentlichen Netzwerks

Anzeigen der Cluster-Konfiguration 

Verwenden Sie den scconf(1M) -p-Befehl.

So zeigen Sie die Cluster-Konfiguration an

Prüfen von globalen Einhängepunkten 

Verwenden Sie den sccheck(1M)-Befehl.

So validieren Sie eine Cluster-Basiskonfiguration

Anzeigen von Sun Cluster-Systemmeldungen 

Prüfen Sie die /var/adm/messages-Datei.

Viewing System Messages in System Administration Guide: Advanced Administration unter System Administration:Advanced Administration

Überwachen des Status von Solstice DiskSuite 

Verwenden Sie die metastat-Befehle.

Solstice DiskSuite/Solaris Volume Manager-Dokumentation. 

Überwachen des Status von VERITAS Volume Manager unter Solaris 8 

Verwenden Sie den vxstat- oder den vxva-Befehl.

VERITAS Volume Manager-Dokumentation. 

Überwachen des Status von Solaris Volume Manager unter Solaris 9 

Verwenden Sie den svmstat-Befehl.

Solaris Volume Manager Administration Guide

ProcedureSo melden Sie sich bei Sun Cluster remote an

Cluster Control Panel (CCP) bietet ein Startfeld für die Tools cconsole(1M), crlogin(1M) und ctelnet(1M). Alle drei Tools starten eine Mehr-Fenster-Verbindung zu einem Satz angegebener Knoten. Diese Mehr-Fenster-Verbindung umfasst ein Host-Fenster für jeden der angegebenen Knoten und ein gemeinsames Fenster. Eine Eingabe im gemeinsamen Fenster wird an alle anderen Fenster gesendet, so dass Sie Befehle auf allen Knoten des Clusters gleichzeitig ausführen können. Weitere Informationen finden Sie in der Online-Dokumentation unter ccp(1M) und cconsole(1M).

Schritte
  1. Prüfen Sie, ob die folgenden Voraussetzungen erfüllt sind, bevor Sie CCP starten.

    • Installieren Sie das SUNWccon-Paket auf der Verwaltungskonsole.

    • Stellen Sie sicher, dass die PATH-Variable auf der Verwaltungskonsole das Sun Cluster-Toolverzeichnis /opt/SUNWcluster/bin, und /usr/cluster/bin enthält. Sie können ein anderes Verzeichnis für das Tools-Verzeichnis angeben, indem Sie die Umgebungsvariable $CLUSTER_HOME festlegen.

    • Konfigurieren Sie die Dateien clustes, serialports und nsswitch.conf, wenn Sie einen Terminal-Konzentrator verwenden. Bei den Dateien kann es sich sowohl um /etc-Dateien als auch NIS/NIS+-Datenbanken handeln. Weitere Informationen finden Sie unter clusters(4) und serialports(4).

  2. Stellen Sie fest, ob Sie eine Sun Enterprise 10000-Server-Plattform verwenden.

    • Wenn ja, melden Sie sich beim System Service Processor (SSP) an und stellen die Verbindung mit dem netcon-Befehl her. Nachdem die Verbindung hergestellt wurde, drücken Sie Umschalt~@, um die Konsole freizuschalten und Schreibzugriff zu erhalten.

  3. Starten Sie den CCP-Startblock.

    Geben Sie an der Verwaltungskonsole folgenden Befehl ein:


    # ccp clustername
    

    Der CCP-Startblock wird angezeigt.

  4. Klicken Sie wahlweise auf eines der Symbole für cconsole, crlogin oder ctelnet im CCP-Startblock, um eine Remote-Sitzung mit dem Cluster zu starten.

Siehe auch

Sie können die cconsole-, crlogin- oder ctelnet-Sitzungen auch von der Befehlszeile aus starten.

ProcedureSo greifen Sie auf das scsetup-Dienstprogramm zu

Mit dem scsetup(1M)-Dienstprogramm können Sie das Quorum, die Ressourcengruppe, den Cluster-Transport, den privaten Hostnamen, die Gerätegruppe und neue Knotenoptionen für den Cluster interaktiv konfigurieren.

Schritte
  1. Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an.

  2. Starten Sie das scsetup-Dienstprogramm.


    # scsetup
    

    Das Hauptmenü wird angezeigt.

  3. Treffen Sie Ihre Konfigurationsauswahl im Menü. Befolgen Sie die Anweisungen auf dem Bildschirm, um die Aufgabe zu beenden.

    Weitere Informationen finden Sie in der Online-Hilfe zu scsetup.

ProcedureSo zeigen Sie Sun Cluster-Korrekturversionsinformationen an

Um dieses Verfahren durchzuführen, müssen Sie nicht als Superuser angemeldet sein.

Schritt

    Geben Sie folgenden Befehl ein:


    % showrev -p
    

    Sun Cluster-Update-Versionen werden durch die Hauptprodukt-Korrekturversionsnummer und die Aktualisierungsversion identifiziert.


Beispiel 1–1 Anzeigen von Sun Cluster-Korrekturversionsinformationen

Im folgenden Beispiel werden Informationen über die Korrekturversion 110648-05 angezeigt.


% showrev -p | grep 110648
Patch: 110648-05 Obsoletes:  Requires:  Incompatibles:  Packages: 

ProcedureSo zeigen Sie die Sun Cluster-Version und die Versionsinformationen an

Um dieses Verfahren durchzuführen, müssen Sie nicht als Superuser angemeldet sein.

Schritt

    Geben Sie folgenden Befehl ein:


    % scinstall -pv
    

    Mit diesem Befehl werden die Sun Cluster-Versionsnummer und Versionszeichenfolgen für alle Sun Cluster-Pakete angezeigt.


Beispiel 1–2 Anzeigen von Sun Cluster-Release- und Versionsinformationen

Das nachstehende Beispiel zeigt die Versionsinformationen zum Cluster und die Versionsinformationen für alle Pakete an.


% scinstall -pv
SunCluster 3.1
SUNWscr:       3.1.0,REV=2000.10.01.01.00
SUNWscdev:     3.1.0,REV=2000.10.01.01.00
SUNWscu:       3.1.0,REV=2000.10.01.01.00
SUNWscman:     3.1.0,REV=2000.10.01.01.00
SUNWscsal:     3.1.0,REV=2000.10.01.01.00
SUNWscsam:     3.1.0,REV=2000.10.01.01.00
SUNWscvm:      3.1.0,REV=2000.10.01.01.00
SUNWmdm:       4.2.1,REV=2000.08.08.10.01

ProcedureSo zeigen Sie konfigurierte Ressourcentypen, Ressourcengruppen und Ressourcen an

Für dieses Verfahren können Sie auch die grafische Benutzeroberfläche (GUI) von SunPlex-Manager verwenden. Weitere Informationen finden Sie in Kapitel 10, Verwaltung von Sun Cluster mithilfe der grafischen Benutzeroberflächen . Weitere Informationen finden Sie in der Online-Hilfe zu SunPlex-Manager.

Um dieses Verfahren durchzuführen, müssen Sie nicht als Superbenutzer angemeldet sein.

Schritt

    Anzeigen der konfigurierten Ressourcentypen, Ressourcengruppen und Ressourcen des Clusters.


    % scrgadm -p
    

Beispiel 1–3 Anzeigen von konfigurierten Ressourcentypen, Ressourcengruppen und Ressourcen

Das nachstehende Beispiel zeigt die Ressourcentypen (RT Name), Ressourcengruppen (RG Name) und Ressourcen (RS Name) an, die für den Cluster schost konfiguriert sind.


% scrgadm -p
RT Name: SUNW.SharedAddress
  RT Description: HA Shared Address Resource Type 
RT Name: SUNW.LogicalHostname
  RT Description: Logical Hostname Resource Type 
RG Name: schost-sa-1 
  RG Description:  
    RS Name: schost-1
      RS Description: 
      RS Type: SUNW.SharedAddress
      RS Resource Group: schost-sa-1
RG Name: schost-lh-1 
  RG Description:  
    RS Name: schost-3
      RS Description: 
      RS Type: SUNW.LogicalHostname
      RS Resource Group: schost-lh-1

ProcedureSo prüfen Sie den Status von Cluster-Komponenten

Für dieses Verfahren können Sie auch die grafische Benutzeroberfläche (GUI) von SunPlex-Manager verwenden. Weitere Informationen finden Sie in der Online-Hilfe zu SunPlex-Manager.

Um dieses Verfahren durchzuführen, müssen Sie nicht als Superbenutzer angemeldet sein.

Schritt

    Prüfen des Status von Cluster-Komponenten.


    % scstat -p
    

Beispiel 1–4 Überprüfen des Status von Cluster-Komponenten

Das folgende Beispiel gibt einen Einblick in die Statusinformationen für Cluster-Komponenten, die von scstat(1M) zurückgegeben werden.


% scstat -p
-- Cluster Nodes --
 
                    Node name           Status
                    ---------           ------
  Cluster node:     phys-schost-1      Online
  Cluster node:     phys-schost-2      Online
  Cluster node:     phys-schost-3      Online
  Cluster node:     phys-schost-4      Online
 
------------------------------------------------------------------
 
-- Cluster Transport Paths --
 
                    Endpoint            Endpoint            Status
                    --------            --------            ------
  Transport path:   phys-schost-1:qfe1 phys-schost-4:qfe1 Path online
  Transport path:   phys-schost-1:hme1 phys-schost-4:hme1 Path online
...
 
------------------------------------------------------------------
 
-- Quorum Summary --
 
  Quorum votes possible:      6
  Quorum votes needed:        4
  Quorum votes present:       6
 
-- Quorum Votes by Node --
 
                    Node Name           Present Possible Status
                    ---------           ------- -------- ------
  Node votes:       phys-schost-1      1        1       Online
  Node votes:       phys-schost-2      1        1       Online
...
 
-- Quorum Votes by Device --
 
                    Device Name         Present Possible Status 
                    -----------         ------- -------- ------ 
  Device votes:     /dev/did/rdsk/d2s2  1        1       Online 
  Device votes:     /dev/did/rdsk/d8s2  1        1       Online 
...
 
-- Device Group Servers --
 
                         Device Group        Primary             Secondary
                         ------------        -------             ---------
  Device group servers:  rmt/1               -                   -
  Device group servers:  rmt/2               -                   -
  Device group servers:  schost-1           phys-schost-2      phys-schost-1
  Device group servers:  schost-3           -                   -
 
-- Device Group Status --
 
                              Device Group        Status              
                              ------------        ------              
  Device group status:        rmt/1               Offline
  Device group status:        rmt/2               Offline
  Device group status:        schost-1            Online
  Device group status:        schost-3            Offline
 
------------------------------------------------------------------
 
-- Resource Groups and Resources --
 
            Group Name          Resources
            ----------          ---------
 Resources: test-rg             test_1
 Resources: real-property-rg    -
 Resources: failover-rg         -
 Resources: descript-rg-1       -
...
 
-- Resource Groups --
 
            Group Name          Node Name           State
            ----------          ---------           -----
     Group: test-rg             phys-schost-1      Offline
     Group: test-rg             phys-schost-2      Offline
...
 
-- Resources --
 
            Resource Name       Node Name           State     Status Message
            -------------       ---------           -----     --------------
  Resource: test_1              phys-schost-1      Offline   Offline
  Resource: test_1              phys-schost-2      Offline   Offline
 
-----------------------------------------------------------------
 
-- IPMP Groups --
 
              Node Name         Group   	 Status         Adapter   Status
              ---------         -----   	 ------         -------   ------
  IPMP Group: phys-schost-1     sc_ipmp0   Online         qfe1      Online

  IPMP Group: phys-schost-2     sc_ipmp0   Online         qfe1      Online

------------------------------------------------------------------
 

ProcedureSo prüfen Sie den Status des öffentlichen Netzwerks

Für dieses Verfahren können Sie auch die grafische Benutzeroberfläche von SunPlex-Manager verwenden. Weitere Informationen finden Sie in der Online-Hilfe zu SunPlex-Manager.

Um dieses Verfahren durchzuführen, müssen Sie nicht als Superbenutzer angemeldet sein.

Verwenden Sie den scstat(1M)-Befehl, um den Status der IPMP-Gruppen zu prüfen.

Schritt

    Prüfen des Status von Cluster-Komponenten.


    % scstat -i
    

Beispiel 1–5 Prüfen des öffentlichen Netzwerkstatus

Das nachstehende Beispiel gibt Einblick in die Statusinformationen für Cluster-Komponenten, die von scstat -i zurückgegeben werden.


% scstat -i
-----------------------------------------------------------------
 
-- IPMP Groups --
 
              Node Name         Group   	 Status         Adapter   Status
              ---------         -----   	 ------         -------   ------
  IPMP Group: phys-schost-1     sc_ipmp1 	 Online         qfe2      Online

  IPMP Group: phys-schost-1     sc_ipmp0 	 Online         qfe1      Online

  IPMP Group: phys-schost-2     sc_ipmp1 	 Online         qfe2      Online

  IPMP Group: phys-schost-2     sc_ipmp0 	 Online         qfe1      Online

------------------------------------------------------------------
 

ProcedureSo zeigen Sie die Cluster-Konfiguration an

Für dieses Verfahren können Sie auch die grafische Benutzeroberfläche von SunPlex-Manager verwenden. Weitere Informationen finden Sie in der Online-Hilfe zu SunPlex-Manager.

Um dieses Verfahren durchzuführen, müssen Sie nicht als Superbenutzer angemeldet sein.

Schritt

    Anzeigen der Cluster-Konfiguration


    % scconf -p
    

    Verwenden Sie die Verbose-Optionen, um mit dem scconf-Befehl weitere Informationen anzuzeigen. Detaillierte Informationen finden Sie in der Online-Dokumentation unter scconf(1M).


Beispiel 1–6 Anzeigen der Cluster-Konfiguration

Das nachstehende Beispiel listet die Cluster-Konfiguration auf.


% scconf -p
Cluster name:                       cluster-1
Cluster ID:                         0x3908EE1C
Cluster install mode:               disabled
Cluster private net:                172.16.0.0
Cluster private netmask:            192.168.0.0
Cluster new node authentication:    unix
Cluster new node list:              <NULL - Allow any node>
Cluster nodes:                      phys-schost-1 phys-schost-2 phys-schost-3
phys-schost-4
Cluster node name:                                 phys-schost-1
  Node ID:                                         1
  Node enabled:                                    yes
  Node private hostname:                           clusternode1-priv
  Node quorum vote count:                          1
  Node reservation key:                            0x3908EE1C00000001
  Node transport adapters:                         hme1 qfe1 qfe2
 
Node transport adapter:                          hme1
    Adapter enabled:                               yes
    Adapter transport type:                        dlpi
    Adapter property:                              device_name=hme
    Adapter property:                              device_instance=1
    Adapter property:                              dlpi_heartbeat_timeout=10000
...
Cluster transport junctions:                       hub0 hub1 hub2
 
Cluster transport junction:                        hub0
  Junction enabled:                                yes
  Junction type:                                   switch
  Junction port names:                             1 2 3 4
...
Junction port:                                   1
    Port enabled:                                  yes
 
Junction port:                                   2
    Port enabled:                                  yes
...
Cluster transport cables
                    Endpoint            Endpoint        State
                    --------            --------        -----
  Transport cable:  phys-schost-1:hme1@0 hub0@1        Enabled
  Transport cable:  phys-schost-1:qfe1@0 hub1@1        Enabled
  Transport cable:  phys-schost-1:qfe2@0 hub2@1        Enabled
  Transport cable:  phys-schost-2:hme1@0 hub0@2        Enabled
...
Quorum devices:                                    d2 d8
 
Quorum device name:                                d2
  Quorum device votes:                             1
  Quorum device enabled:                           yes
  Quorum device name:                              /dev/did/rdsk/d2s2
  Quorum device hosts (enabled):                   phys-schost-1
 phys-schost-2
  Quorum device hosts (disabled): 
...
Device group name:                                 schost-3
  Device group type:                               SVM
  Device group failback enabled:                   no
  Device group node list:                          phys-schost-3, phys-schost-4
  Diskset name:                                    schost-3

ProcedureSo validieren Sie eine Cluster-Basiskonfiguration

Der sccheck(1M)-Befehl führt eine Reihe von Prüfungen zur Validierung der Basiskonfiguration aus, die für einen einwandfreien Cluster-Betrieb erforderlich ist. Wenn keine Prüfung fehlschlägt, kehrt sccheck zur Shell-Eingabeaufforderung zurück. Wenn eine Prüfung fehlschlägt, erstellt sccheck im angegebenen oder im Standard-Ausgabeverzeichnis einen entsprechenden Bericht. Wenn Sie sccheck auf mehr als einem Knoten ausführen, erstellt sccheck einen Bericht für jeden Knoten und einen Bericht für die Prüfungen auf mehreren Knoten.

Der sccheck-Befehl wird in zwei Schritten ausgeführt: Sammeln und Analysieren von Daten. Das Sammeln von Daten kann je nach Systemkonfiguration zeitaufwändig sein. Sie können sccheck im Verbose-Modus mit dem -v1-Flag aufrufen, um Fortschrittsmeldungen zu drucken, oder das -v2-Flag für die Ausführung von sccheck auf Hoch-Verbose-Modus einstellen; damit werden insbesondere während der Sammlung der Daten ausführlichere Fortschrittsmeldungen ausgegeben.


Hinweis –

Führen Sie sccheck nach einem Verwaltungsverfahren aus, das möglicherweise zu Änderungen an Geräten, Datenträgerverwaltungs-Komponenten oder der Sun Cluster-Konfiguration geführt hat.


Schritte
  1. Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an.


    % su
    
  2. Überprüfen Sie die Cluster-Konfiguration.


     # sccheck
    

Beispiel 1–7 Prüfen der Cluster-Konfiguration ohne Fehler bei den Prüfschritten

Das nachstehende Beispiel zeigt die Ausführung von sccheck im Verbose-Modus auf den Knoten phys-schost-1 und phys-schost-2 ohne Fehler bei den Prüfschritten.


# sccheck -v1 -h phys-schost-1,phys-schost-2

sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished
# 


Beispiel 1–8 Prüfen der Cluster-Konfiguration mit Fehler bei einem Prüfschritt

Das nachstehende Beispiel zeigt den Knoten phys-schost-2 im Cluster suncluster, auf dem der Einhängepunkt /global/phys-schost-1 fehlt. Die Berichte werden im Ausgabeverzeichnis /var/cluster/sccheck/myReports/ erstellt.


# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports

sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished.
sccheck: One or more checks failed.
sccheck: The greatest severity of all check failures was 3 (HIGH).
sccheck: Reports are in /var/cluster/sccheck/myReports.
# 
# cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt
...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Sun Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
 #

ProcedureSo prüfen Sie die globalen Einhängepunkte

Der sccheck(1M)-Befehl umfasst Prüfungen, mit denen die /etc/vfstab-Datei nach Konfigurationsfehlern auf dem Cluster-Dateisystem und den globalen Einhägepunkten geprüft wird.


Hinweis –

Führen Sie sccheck nach Änderungen an der Cluster-Konfiguration aus, die Auswirkungen auf Geräte oder auf Datenträgerverwaltungskomponenten haben.


Schritte
  1. Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an.


    % su
    
  2. Überprüfen Sie die Cluster-Konfiguration.


     # sccheck
    

Beispiel 1–9 Prüfen der globalen Einhägepunkte

Das nachstehende Beispiel zeigt den Knoten phys-schost-2 des Clusters suncluster, auf dem der Einhängepunkt /global/schost-1 fehlt. Die Berichte werden im Ausgabeverzeichnis /var/cluster/sccheck/myReports/ erstellt.


# sccheck -v1 -h phys-schost-1,phys-schost-2 -o /var/cluster/sccheck/myReports

sccheck: Requesting explorer data and node report from phys-schost-1.
sccheck: Requesting explorer data and node report from phys-schost-2.
sccheck: phys-schost-1: Explorer finished.
sccheck: phys-schost-1: Starting single-node checks.
sccheck: phys-schost-1: Single-node checks finished.
sccheck: phys-schost-2: Explorer finished.
sccheck: phys-schost-2: Starting single-node checks.
sccheck: phys-schost-2: Single-node checks finished.
sccheck: Starting multi-node checks.
sccheck: Multi-node checks finished.
sccheck: One or more checks failed.
sccheck: The greatest severity of all check failures was 3 (HIGH).
sccheck: Reports are in /var/cluster/sccheck/myReports.
# 
# cat /var/cluster/sccheck/myReports/sccheck-results.suncluster.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 3065
SEVERITY : HIGH
FAILURE  : Global filesystem /etc/vfstab entries are not consistent across 
all Sun Cluster 3.x nodes.
ANALYSIS : The global filesystem /etc/vfstab entries are not consistent across 
all nodes in this cluster.
Analysis indicates:
FileSystem '/global/phys-schost-1' is on 'phys-schost-1' but missing from 'phys-schost-2'.
RECOMMEND: Ensure each node has the correct /etc/vfstab entry for the 
filesystem(s) in question.
...
#
# cat /var/cluster/sccheck/myReports/sccheck-results.phys-schost-1.txt

...
===================================================
= ANALYSIS DETAILS =
===================================================
------------------------------------
CHECK ID : 1398
SEVERITY : HIGH
FAILURE  : An unsupported server is being used as a Sun Cluster 3.x node.
ANALYSIS : This server may not been qualified to be used as a Sun Cluster 3.x node.  
Only servers that have been qualified with Sun Cluster 3.x are supported as 
Sun Cluster 3.x nodes.
RECOMMEND: Because the list of supported servers is always being updated, check with 
your Sun Microsystems representative to get the latest information on what servers 
are currently supported and only use a server that is supported with Sun Cluster 3.x.
...
#