Sun Cluster Handbuch Softwareinstallation für Solaris OS

So bereiten Sie den Cluster für eine nicht laufende Aufrüstung vor

Führen Sie vor dem Aufrüsten der Software folgende Schritte aus, um den Cluster aus dem Betrieb zu entfernen:

  1. Stellen Sie sicher, dass die Konfiguration die Anforderungen für die Aufrüstung erfüllt.

    Weitere Informationen finden Sie unter Aufrüstungsanforderungen und Unterstützungsrichtlinien .

  2. Halten Sie die CD-ROMs, die Dokumentation und die Korrekturversionen für alle Softwareprodukte bereit, die Sie aufrüsten.

    • Solaris 8 oder Solaris 9-Betriebssystem

    • Sun Cluster 3.1 9/04-Framework

    • Sun Cluster 3.1 9/04-Datendienste (Agenten)

    • Anwendungen, die von den Datendienst-Agenten von Sun Cluster 3.1 9/04 verwaltet werden

    • SPARC: VERITAS Volume Manager

    Angaben zum Speicherort von Korrekturversionen und Installationsanweisungen finden Sie unter “Korrekturversionen und erforderliche Firmwareversionen” in Sun Cluster 3.1-Versionshinweise.

  3. (Optional) Installationsdokumentation von Sun Cluster 3.1 9/04.

    Installieren Sie die Dokumentationspakete in Ihrem bevorzugten Speicherort, wie zum Beispiel einer Verwaltungskonsole oder einem Dokumentationsserver. Zeigen Sie die index.html-Datei auf der obersten Ebene der Sun Cluster 3.1 9/04 CD-ROM an, um auf die Installationsanweisungen zuzugreifen.

  4. Wenn Sie eine Aufrüstung von der Sun Cluster 3.0-Software durchführen, sollten Sie Ihre Liste der Test-IP-Adressen bereithalten.

    Jeder öffentliche Netzwerkadapter im Cluster muss mindestens über eine Test-IP-Adresse verfügen. Diese Anforderung gilt unabhängig davon, ob es sich bei dem Adapter um den aktiven Adapter oder den Sicherungsadapter in der Gruppe handelt. Diese IP-Testadressen werden verwendet, um die Adapter für die Verwendung von IP-Netzwerk-Multipathing zu rekonfigurieren.


    Hinweis –

    Jede IP-Testadresse muss sich in demselben Teilnetz wie die vorhandene, vom öffentlichen Netzwerkadapter verwendete IP-Adresse befinden.


    Um die öffentlichen Netzwerkadapter eines Knotens aufzulisten, führen Sie folgenden Befehl aus:


    % pnmstat
    

    Weitere Informationen zu IP-Testadressen für IP-Netzwerk-Multipathing finden Sie im IP Network Multipathing Administration Guide (Solaris 8) oder System Administration Guide: IP Services (Solaris 9).

  5. Benachrichtigen Sie die Benutzer, dass die Cluster-Dienste während der Aufrüstung nicht zur Verfügung stehen werden.

  6. Stellen Sie sicher, dass der Cluster normal funktioniert.

    • Um den aktuellen Status des Clusters anzuzeigen, führen Sie folgenden Befehl von einem Knoten aus:


      % scstat
      

      Weitere Informationen finden Sie in der Online-Dokumentation unter scstat(1M).

    • Suchen Sie im Protokoll /var/adm/messages nach nicht gelösten Fehler- oder Warnmeldungen.

    • Prüfen Sie den Datenträger-Manager-Status.

  7. Melden Sie sich als Superbenutzer bei einem Cluster-Knoten an.

  8. Starten Sie das scsetup(1M)-Dienstprogramm.


    # scsetup
    

    Das Hauptmenü wird angezeigt.

  9. Schalten Sie jede Ressourcengruppe offline.

    1. Wählen Sie im scsetup-Hauptmenü die Option "Ressourcengruppen" aus.

    2. Wählen Sie im Ressourcengruppenmenü Online/Offline oder Switchover einer Ressourcengruppe.

    3. Befolgen Sie die Anweisungen, um alle Ressourcengruppen offfline zu schalten und sie in einen nicht verwalteten Zustand zu versetzen.

    4. Wenn alle Ressourcengruppen offline geschaltet sind, geben Sie q ein, um zum Ressourcengruppenmenü zurückzukehren.

  10. Deaktivieren Sie alle Ressourcen im Cluster.

    Die Deaktivierung von Ressourcen vor der Aufrüstung verhindert, dass der Cluster die Ressourcen automatisch online bringt, wenn ein Knoten unbeabsichtigt im Cluster-Modus neu gestartet wird.

    1. Wählen Sie im Ressourcengruppenmenü Ressource aktivieren oder deaktivieren.

    2. Wählen Sie eine Ressource zum Deaktivieren und befolgen Sie die Eingabeaufforderungen.

    3. Wiederholen Sie Schritt Schritt b für sämtliche Ressourcen.

    4. Wenn alle Ressourcen deaktiviert sind, geben Sie q ein, um zum Ressourcengruppenmenü zurückzukehren.

  11. Beenden Sie das scsetup-Dienstprogramm.

    Geben Sie zum Zurückkehren in jedem Untermenü q ein, oder drücken Sie Strg+C.

  12. Prüfen Sie, ob alle Ressourcen auf allen Knoten offline sind und ob sich alle Ressourcengruppen im unverwalteten Zustand befinden.


    # scstat -g
    

  13. Wenn der Cluster Doppelverkettungsvermittler für die Solstice DiskSuite oder Solaris Volume Manager-Software verwendet, heben Sie die Konfiguration der Vermittler auf.

    Weitere Informationen finden Sie unter Konfigurieren von Doppelverkettungsvermittlern .

    1. Überprüfen Sie mithilfe des folgenden Befehls, dass beim Vermittler keine Datenprobleme vorliegen.


      # medstat -s Satzname
      
      -s Satzname

      Gibt den Plattensatznamen an

      Wenn der Wert im Statusfeld Bad lautet, reparieren Sie den betroffenen Vermittlerhost. Führen Sie das Verfahren So reparieren Sie fehlerhafte Vermittlerdaten aus.

    2. Listen Sie alle Vermittler auf.

      Verwenden Sie diese Informationen für die Wiederherstellung des Vermittlers beim Ausführen des Verfahrens So stellen Sie eine Nicht laufende Aufrüstung auf die Software Sun Cluster 3.1 9/04 fertig.

    3. Übernehmen Sie die Eigentümerschaft eines Plattensatzes, der Vermittler verwendet, wenn kein Knoten bereits Eigentümer ist.


      # metaset -s Satzname -t
      
      -t

      Übernimmt die Eigentümerschaft des Plattensatzes

    4. Dekonfigurieren Sie alle Vermittler für den Plattensatz.


      # metaset -s Satzname -d -m Vermittlerhostliste
      
      -s Satzname

      Gibt den Plattensatznamen an

      -d

      Löscht aus dem Plattensatz

      -m Vermittlerhostliste

      Gibt den Namen des Knotens an, der als Vermittlerhost für den Plattensatz entfernt werden soll

      Weitere Informationen zu vermittlerspezifischen Optionen des metaset-Befehls finden Sie in der Online-Dokumentation unter mediator(7D).

    5. Wiederholen Sie Schritt c bis Schritt d für alle verbleibenden Plattensätze, die Vermittler verwenden.

  14. Installieren Sie die Sun Web Console-Pakete, wenn Sie dies nicht bereits getan haben.

    Führen Sie diesen Schritt auf jedem Knoten des Clusters aus. Diese Pakete werden von der Sun Cluster-Software auch dann benötigt, wenn Sie Sun Web Console nicht verwenden.

    1. Legen Sie die Sun Cluster 3.1 9/04 CD-ROM in das CD-ROM-Laufwerk ein.

    2. Wechseln Sie zum /cdrom/cdrom0/Solaris_arch/Product/sun_web_console/2.1/-Verzeichnis, wobei arch für sparc oder x86 steht.

    3. Führen Sie den Befehl setup aus.


      # ./setup
      

      Der setup-Befehl installiert alle Pakete zur Unterstützung von Sun Web Console.

  15. Stellen Sie bei einem Cluster mit zwei Knoten, der die Sun StorEdge Availability Suite-Software verwendet, sicher, dass sich die Konfigurationsdaten für Verfügbarkeitsdienste auf der Quorum-Platte befinden.

    Die Konfigurationsdaten müssen sich auf einer Quorum-Platte befinden, damit Sun StorEdge Availability Suite auch nach Aktualisierung der Cluster-Software ordnungsgemäß funktioniert.

    1. Melden Sie sich als Superbenutzer bei einem Knoten des Clusters an, der die Sun StorEdge Availability Suite-Software ausführt.

    2. Identifizieren Sie die Geräte-ID und den Bereich, der von der Sun StorEdge Availability Suite-Konfigurationsdatei verwendet wird.


      # /usr/opt/SUNWscm/sbin/dscfg
      /dev/did/rdsk/dNsS
      

      In dieser Beispielausgabe ist N die Geräte-ID und S der Bereich des Geräts N.

    3. Identifizieren Sie das vorhandene Quorum-Gerät.


      # scstat -q
      -- Quorum-Stimmen nach Gerät --
                           Gerätename          Aktuell  möglicher  Status
                           -----------         -------  ---------  ------
         Gerätestimmen:    /dev/did/rdsk/dQsS  1        1          Online

      In dieser Beispielausgabe ist dQsS das vorhandene Quorum-Gerät.

    4. Wenn das Quorum-Gerät nicht dem Sun StorEdge Availability Suite-Konfigurationsdatengerät entspricht, verschieben Sie die Konfigurationsdaten in einen verfügbaren Bereich auf dem Quorum-Gerät.


      # dd if=`/usr/opt/SUNWesm/sbin/dscfg` of=/dev/did/rdsk/dQsS
      


      Hinweis –

      Sie müssen den Namen des Raw-DID-Geräts, /dev/did/rdsk/, und nicht des Block-DID-Geräts, /dev/did/dsk/, verwenden.


    5. Wenn Sie die Konfigurationsdaten verschoben haben, konfigurieren Sie die Sun StorEdge Availability Suite-Software für die Verwendung des neuen Speicherorts.

      Geben Sie als Superbenutzer den folgenden Befehl auf jedem Knoten ein, auf dem die Sun StorEdge Availability Suite-Software ausgeführt wird.


      # /usr/opt/SUNWesm/sbin/dscfg -s /dev/did/rdsk/dQsS
      

  16. Stoppen Sie alle Anwendungen, die auf Knoten des Clusters ausgeführt werden.

  17. Stellen Sie sicher, dass von allen gemeinsam genutzten Daten eine Sicherungskopie erstellt wurde.

  18. Fahren Sie den Cluster von einem Knoten herunter.


    # scshutdown -g0 -y
    

    Weitere Informationen finden Sie in der Online-Dokumentation unter scshutdown(1M).

  19. Booten Sie sämtliche Knoten im Nicht-Cluster-Modus.

    Führen Sie in SPARC-basierten Systemen den folgenden Befehl aus:


    ok boot -x
    

    Führen Sie in x86-basierten Systemen die folgenden Befehle aus:


    ...
                          <<< Current Boot Parameters >>>
    Boot path: /pci@0,0/pci-ide@7,1/ata@1/cmdk@0,0:b
    Boot args:
    
    Type  b [file-name] [boot-flags] <ENTER>    to boot with options
    or    i <ENTER>                             to enter boot interpreter
    or    <ENTER>                               to boot with defaults
    
                      <<< timeout in 5 seconds >>>
    Select (b)oot or (i)nterpreter: b -x
    

  20. Stellen Sie sicher, dass von jeder Systemplatte eine Sicherungskopie erstellt wurde.

  21. Upgrade the Sun Cluster software or the Solaris operating system.