Sun Cluster Handbuch Systemverwaltung für Solaris OS

Kapitel 9 Sichern und Wiederherstellen eines Clusters

Die folgenden schrittweisen Anweisungen sind in diesem Kapitel beschrieben.

Sichern eines Clusters

Tabelle 9–1 Task Map: Sichern von Cluster-Dateien

Schritt 

Anweisungen siehe… 

Suchen der Namen der zu sichernden Dateisysteme 

So suchen Sie die Namen der zu sichernden Dateisysteme

Berechnen der erforderlichen Anzahl von Bändern, die zum Speichern einer kompletten Sicherung erforderlich sind 

So bestimmen Sie die Anzahl der erforderlichen Bänder für eine komplette Sicherung

Sichern des Root-Dateisystems 

So sichern Sie das Root-Dateisystem (/)

Durchführen einer Online-Sicherung für gespiegelte oder vernetzte Dateisysteme 

So führen Sie Online-Sicherungen für Spiegel durch (Solstice DiskSuite/Solaris Volume Manager)

SPARC: So führen Sie Online-Sicherungen für Datenträger durch (VERITAS Volume Manager)

So suchen Sie die Namen der zu sichernden Dateisysteme

Verwenden Sie dieses Verfahren, um die Namen der zu sichernden Dateisysteme zu bestimmen.

  1. Zeigen Sie den Inhalt der /etc/vfstab-Datei an.

    Für die Ausführung dieses Befehls müssen Sie nicht als Superbenutzer angemeldet sein.


    % more /etc/vfstab
    

  2. Suchen Sie in der Spalte mit den Einhängepunkten den Namen des Dateisystems, das Sie sichern möchten.

    Verwenden Sie diesen Namen beim Sichern des Dateisystems.


    % more /etc/vfstab 
    

Beispiel — Suchen der Namen der zu sichernden Dateisysteme

Im folgenden Beispiel werden die Namen der verfügbaren, in der /etc/vfstab-Datei aufgelisteten Dateisysteme angezeigt.


% more /etc/vfstab
#device             device             mount  FS fsck  mount  mount
#to mount           to fsck            point  type     pass   at boot  options
#
#/dev/dsk/c1d0s2    /dev/rdsk/c1d0s2   /usr     ufs     1      yes      -
 f                  -                  /dev/fd  fd      -      no       -
 /proc              -                  /proc    proc    -      no       -
 /dev/dsk/c1t6d0s1  -                  -        swap    -      no       -
 /dev/dsk/c1t6d0s0  /dev/rdsk/c1t6d0s0 /        ufs     1      no       -
 /dev/dsk/c1t6d0s3  /dev/rdsk/c1t6d0s3 /cache   ufs     2      yes      -
 swap               -                  /tmp     tmpfs   -      yes      -

So bestimmen Sie die Anzahl der erforderlichen Bänder für eine komplette Sicherung

Verwenden Sie dieses Verfahren, um die Anzahl der Bänder zu berechnen, die Sie für die Sicherung eines Dateisystems benötigen.

  1. Melden Sie sich bei dem Cluster-Knoten, den Sie sichern möchten, als Superbenutzer an.

  2. Schätzen Sie die Größe der Sicherungskopie in Bytes.


    # ufsdump S Dateisystem 
    

    S

    Zeigt die geschätzte Anzahl der Bytes an, die zum Durchführen der Sicherung erforderlich sind.

    Dateisystem

    Gibt den Namen des zu sichernden Dateisystems an.

  3. Teilen Sie die geschätzte Größe durch die Kapazität der Bänder um festzustellen, wie viele Bänder Sie benötigen.

Beispiel — Bestimmen der Anzahl der benötigten Bänder

Im nachfolgenden Beispiel passt der Umfang des Dateisystems mit 905,881,620 Bytes problemlos auf ein Band mit 4 GB (905,881,620 ÷ 4,000,000,000).


# ufsdump S /global/phys-schost-1
905881620

So sichern Sie das Root-Dateisystem (/)

Mit diesem Verfahren sichern Sie das Root-Dateisystem (/) eines Cluster-Knotens. Stellen Sie sich, dass der Cluster problemlos läuft, bevor Sie das Sicherungsverfahren durchführen.

  1. Melden Sie sich bei dem Cluster-Knoten, den Sie sichern möchten, als Superbenutzer an.

  2. Schalten Sie alle laufenden Datendienste vom zu sichernden Knoten auf einen anderen Knoten im Cluster um.


    # scswitch -z -D Plattengerätegruppe[,...] -h Knoten[,...]
    

    -z

    Führt die Umschaltung durch.

    -D Plattengerätegruppe

    Name der umzuschaltenden Plattengerätegruppe.

    -h Knoten

    Name des Cluster-Knotens, auf den die Plattengerätegruppe umgeschaltet wird. Dieser Knoten wird zum neuen Primärknoten.

  3. Fahren Sie den Knoten herunter.


    # shutdown -g0 -y -i0
    

  4. Booten Sie den Cluster im Nicht-Cluster-Modus neu.

    • SPARC:


      ok boot -x
      

    • x86:


                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
      sd@0,0:a
      Boot args:
      
      Type  b [file-name] [boot-flags] <ENTER> to boot with options
      or    i <ENTER>                          to enter boot interpreter
      or    <ENTER>                            to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -x
      

  5. Sichern Sie das Root-Dateisystem (/).

    • Verwenden Sie folgenden Befehl, wenn die Root-Platte nicht eingekapselt ist.


      # ufsdump 0ucf Abbildgerät /
      

    • Verwenden Sie folgenden Befehl, wenn die Root-Platte eingekapselt ist.


      # ufsdump 0ucf Abbildgerät /dev/vx/rdsk/rootvol
      

    Weitere Informationen finden Sie in der Online-Dokumentation unter ufsdump(1M).

  6. Booten Sie den Knoten im Cluster-Modus neu.


    # init 6
    

Beispiel — Sichern des Root-Dateisystems (/)

Im folgenden Beispiel wird das Root-Dateisystem (/) auf dem Bandgerät /dev/rmt/0 gesichert.


# ufsdump 0ucf /dev/rmt/0 /
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 18 18:06:15 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/rdsk/c0t0d0s0 (phys-schost-1:/) to /dev/rmt/0
  DUMP: Mapping (Pass I) [regular files]
  DUMP: Mapping (Pass II) [directories]
  DUMP: Estimated 859086 blocks (419.48MB).
  DUMP: Dumping (Pass III) [directories]
  DUMP: Dumping (Pass IV) [regular files]
  DUMP: 859066 blocks (419.47MB) on 1 volume at 2495 KB/sec
  DUMP: DUMP IS DONE
  DUMP: Level 0 dump on Tue Apr 18 18:06:15 2000

So führen Sie Online-Sicherungen für Spiegel durch (Solstice DiskSuite/Solaris Volume Manager)

Ein gespiegeltes Solstice DiskSuite-Metagerät oder ein Solaris Volume Manager-Datenträger kann gesichert werden, ohne dass es/er ausgehängt wird bzw. ohne dass der gesamte Spiegel offline gesetzt wird. Einer der Unterspiegel muss vorübergehend offline genommen werden, wodurch die Spiegelung ausfällt; er kann jedoch wieder online gebracht und resynchronisiert werden, sobald die Sicherung abgeschlossen ist, ohne das System zu unterbrechen oder dem Benutzer den Datenzugriff zu verweigern. Bei der Verwendung von Spiegeln zur Online-Sicherung erhalten Sie einen “Schnappschuss” eines aktiven Dateisystems.

Möglicherweise kommt es zu Problemen, wenn das Programm unmittelbar vor der Ausführung des lockfs-Befehls Daten auf den Datenträger schreibt. Sie verhindern dieses Problem, indem Sie vorübergehend alle auf diesem Knoten laufenden Dienste stoppen. Stellen Sie außerdem sicher, dass der Cluster problemlos läuft, bevor Sie das Sicherungsverfahren durchführen.

  1. Melden Sie sich bei dem Cluster-Knoten, den Sie sichern möchten, als Superbenutzer an.

  2. Verwenden Sie den Befehl metaset(1M), um festzulegen, welcher Knoten die Eigentümerschaft über den gesicherten Datenträger erhält.


    # metaset -s Satzname
    

    -s Satzname

    Gibt den Plattensatznamen an.

  3. Mit dem lockfs(1M)-Befehl und der -w-Option sperren Sie das Dateisystem für den Schreibzugriff.


    # lockfs -w Einhängepunkt 
    


    Hinweis –

    Sie müssen das Dateisystem nur sperren, wenn der Spiegel ein UFS-Dateisystem enthält. Wenn beispielsweise das Solstice DiskSuite-Metagerät oder der Solaris Volume Manager-Datenträger als ein im raw-Modus betriebenes Gerät für die Datenbankverwaltungs-Software oder eine andere bestimmte Anwendung eingerichtet ist, ist die Verwendung des Befehls lockfs nicht erforderlich. Sie können jedoch das entsprechende Dienstprogramm Ihres Lieferanten ausführen, um die Pufferspeicher zu leeren und den Zugriff zu sperren.


  4. Mit dem metastat(1M)-Befehl bestimmen Sie die Namen der Unterspiegel.


    # metastat -s Satzname -p
    

    -p

    Zeigt den Status in einem der md.tab-Datei ähnlichen Format an.

  5. Mit dem metadetach(1M)-Befehl nehmen Sie einen Unterspiegel offline.


    # metadetach -s Satzname Spiegel Unterspiegel
    


    Hinweis –

    Der Lesezugriff erfolgt weiter über die verbleibenden Unterspiegel. Der offline genommene Unterspiegel ist jedoch nicht mehr synchronisiert, sobald der erste Schreibzugriff auf den Spiegel erfolgt. Diese Inkonsistenz wird korrigiert, sobald der offline genommene Unterspiegel wieder online gebracht wird. Sie müssen fsck nicht ausführen.


  6. Entsperren Sie die Dateisysteme und lassen Sie die Weiterführung der Schreibzugriffe zu. Verwenden Sie dazu den lockfs-Befehl mit der Option -u.


    # lockfs -u Einhängepunkt 
    

  7. Führen Sie eine Dateisystemprüfung durch.


    # fsck /dev/md/diskset/rdsk/Unterspiegel
    

  8. Sichern Sie die den offline genommenen Unterspiegel auf einem Band oder einem anderen Speichermedium.

    Verwenden Sie den ufsdump(1M)-Befehl oder ein Sicherungsprogramm, das Sie normalerweise verwenden.


    # ufsdump 0ucf Abbildgerät Unterspiegel
    


    Hinweis –

    Verwenden Sie den Namen des im raw-Modus betriebenen Geräts (/rdsk) für den Unterspiegel anstelle des Block-Gerätenamens (/dsk).


  9. Mit dem metattach(1M)-Befehl bringen Sie das Metagerät wieder online.


    # metattach -s Satzname Spiegel Unterspiegel
    

    Wenn das Metagerät oder der Datenträger online gebracht wird, erfolgt automatisch eine Resynchronisierung mit dem Spiegel.

  10. Mit dem metastat-Befehl überprüfen Sie, ob der Unterspiegel resynchronisiert wird.


    # metastat -s Satzname Spiegel
    

Beispiel — Durchführen von Online-Sicherungen für Spiegel (Solstice DiskSuite/Solaris Volume Manager)

Im nachstehenden Beispiel ist der Cluster-Knoten phys-schost-1 der Besitzer des Metasatzes schost-1; aus diesem Grund wird das Sicherungsverfahren von phys-schost-1 aus durchgeführt. Der Spiegel /dev/md/schost-1/dsk/d0 besteht aus den Unterspiegeln d10, d20 und d30.


[Bestimmen Sie den Besitzer des Metasatzes:]
# metaset -s schost-1
Set name = schost-1, Set number = 1
Host                Owner
  phys-schost-1     Yes 
...
[Sperren Sie das Dateisystem gegen Schreibzugriffe:] 
# lockfs -w /global/schost-1
[Listen Sie die Unterspiegel auf:]
# metastat -s schost-1 -p
schost-1/d0 -m schost-1/d10 schost-1/d20 schost-1/d30 1
schost-1/d10 1 1 d4s0
schost-1/d20 1 1 d6s0
schost-1/d30 1 1 d8s0
[Nehmen Sie einen Unterspiegel offline:]
# metadetach -s schost-1 d0 d30
[Entsperren Sie das Dateisystem:]
# lockfs -u /
[Prüfen Sie das Dateisystem:]
# fsck /dev/md/schost-1/rdsk/d30
[Kopieren Sie den Unterspiegel auf das Sicherungsgerät:]
# ufsdump 0ucf /dev/rmt/0 /dev/md/schost-1/rdsk/d30
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/md/schost-1/rdsk/d30 to /dev/rdsk/c1t9d0s0.
  ...
  DUMP: DUMP IS DONE
[Bringen Sie den Unterspiegel wieder online:]
# metattach -s schost-1 d0 d30
schost-1/d0: submirror schost-1/d30 is attached
[Resynchronisieren Sie den Unterspiegel:]
# metastat -s schost-1 d0
schost-1/d0: Mirror
    Submirror 0: schost-0/d10
      State: Okay         
    Submirror 1: schost-0/d20
      State: Okay
    Submirror 2: schost-0/d30
      State: Resyncing
    Resync in progress: 42% done
    Pass: 1
    Read option: roundrobin (default)
...

SPARC: So führen Sie Online-Sicherungen für Datenträger durch (VERITAS Volume Manager)

VERITAS Volume Manager identifiziert einen gespiegelten Datenträger als Plex. Ein Plex kann gesichert werden, ohne ihn auszuhängen oder den ganzen Datenträger offline zu nehmen. Das geschieht durch das Erstellen einer Schnappschusskopie des Datenträgers und einer Sicherung dieses temporären Datenträgers, ohne das System zu stoppen oder den Benutzern den Datenzugriff zu verweigern.

Stellen Sie sich, dass der Cluster problemlos läuft, bevor Sie das Sicherungsverfahren durchführen.

  1. Melden Sie sich zuerst bei einem beliebigen Knoten im Cluster an und dann beim aktuellen Primärknoten der Plattengruppe im Cluster als Superbenutzer.

  2. Listen Sie die Plattengruppeninformationen auf.


    # vxprint -g Plattengruppe
    

  3. Führen Sie den scstat(1M)-Befehl aus, um festzustellen, auf welchem Knoten die Plattengruppe aktuell importiert ist, das heißt, welcher Knoten der Primärknoten der Plattengruppe ist.


    # scstat -D
    

    -D

    Zeigt den Status aller Plattengerätegruppen an.

  4. Erstellen Sie einen Schnappschuss des Datenträgers mit dem vxassist-Befehl.


    # vxassist -g Plattengruppe snapstart Datenträger
    


    Hinweis –

    Das Erstellen eines Schnappschusses kann je nach Umfang Ihres Datenträgers längere Zeit in Anspruch nehmen.


  5. Überprüfen Sie, ob der neue Datenträger erstellt wurde.


    # vxprint -g Plattengruppe
    

    Sobald der Schnappschuss abgeschlossen ist, wird im Feld State der Status Snapdone für die ausgewählte Plattengruppe angezeigt.

  6. Stoppen Sie alle auf das Dateisystem zugreifenden Datendienste.


    #  scswitch -z -g resource-group[,...] -h ““ 
    


    Hinweis –

    Mit dem Stoppen aller Datendienste stellen Sie sicher, dass das Daten-Dateisystem richtig gesichert wird. Wenn keine Datendienste ausgeführt werden, müssen Sie Schritt 6 und Schritt 8 nicht ausführen.


  7. Erstellen Sie einen Sicherungsdatenträger mit dem Namen bkup-vol, und hängen Sie den Schnappschuss mit dem vxassist-Befehl an.


    # vxassist -g Plattengruppe snapshot Datenträger bkup-vol
    

  8. Starten Sie alle in Schritt 6 gestoppten Datendienste mit dem scswitch(1M)-Befehl neu.


    # scswitch -z -g Ressourcengruppe[,...] -h Knoten[,...]
    

  9. Überprüfen Sie mit dem vxprint-Befehl, ob der Datenträger jetzt an den neuen Datenträger bkup-vol angehängt ist.


    # vxprint -g Plattengruppe
    

  10. Registrieren Sie die Änderungen der Plattengruppenkonfiguration.


    # scconf -c -D name=Plattengruppe,sync
    

  11. Überprüfen Sie den Sicherungsdatenträger mit dem fsck-Befehl.


    # fsck -y /dev/vx/rdsk/Plattengruppe/Sicherungsdatenträger
    

  12. Erstellen Sie eine Sicherungskopie des Datenträgers bkup-vol auf Band oder auf ein anderes Speichermedium.

    Verwenden Sie den Befehl ufsdump(1M) oder ein Sicherungsprogramm, das Sie normalerweise verwenden.


    # ufsdump 0ucf Abbildgerät /dev/vx/dsk/Plattengruppe/Sicherungsdatenträger
    

  13. Entfernen Sie den temporären Datenträger mit vxedit.


     # vxedit -rf rm bkup-vol
    

  14. Registrieren Sie die Änderungen der Plattengruppenkonfiguration mit dem scconf(1M)-Befehl.


    # scconf -c -D name=Plattengruppe,sync
    

SPARC: Beispiel — Erstellen von Online-Sicherungen für Datenträger (VERITAS Volume Manager)

Im nachstehenden Beispiel ist der Cluster-Knoten phys-schost-2 der Primäreigentümer der Metasatz-Plattengruppe schost-1; aus diesem Grund wird das Sicherungsverfahren von phys-schost-2 aus durchgeführt. Der Datenträger /vo101 wird kopiert und dann an den neuen Datenträger bkup-vol angehängt.


[Melden Sie sich beim Primärknoten als Superbenutzer an.]
[Identifzieren Sie den aktuellen Primärknoten für die Plattengruppe:]
# scstat -D
-- Plattengruppenserver --
                         Gerätegruppe     Primärknoten           Sekundarknoten
                         ------------     -------           ---------
 Plattengruppenserver:   rmt/1            -                 -
 Plattengruppenserver:   schost-1         phys-schost-2     phys-schost-1

-- Plattengruppenstatus --
                             Gerätegruppe        Status              
                             ------------        ------              
 Gerätegruppenstatus:        rmt/1               Offline
 Gerätegruppenstatus:        schost-1            Online
[Listen Sie die Plattengerätegruppeninformationen auf:]
# vxprint -g schost-1
TY NAME            ASSOC     KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
 
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
[Starten Sie den Snapshot-Vorgang:]
# vxassist -g schost-1 snapstart vol01
[Überprüfen Sie, ob der neue Datenträger erstellt wurde:]
# vxprint -g schost-1
TY NAME            ASSOC    KSTATE    LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
  
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
pl vol01-04       vol01      ENABLED  208331   -      SNAPDONE -      -
sd schost-105-01  vol01-04   ENABLED  104139   0      -        -      -
sd schost-106-01  vol01-04   ENABLED  104139   0      -        -      -
[Stoppen Sie ggf. die Datendienste:]
# scswitch -z -g nfs-rg -h ““
[Erstellen Sie eine Kopie des Datenträgers:]
# vxassist -g schost-1 snapshot vol01 bkup-vol
[Starten Sie ggf. die Datendienste:]
# scswitch -z -g nfs-rg -h phys-schost-1
[Überprüfen Sie, ob bkup-vol erstellt wurde:]
# vxprint -g schost-1
TY NAME           ASSOC       KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1    -        -        -      -        -      -
 
dm schost-101     c1t1d0s2    -        17678493 -      -        -      -
...
 
v  bkup-vol       gen         ENABLED  204800   -      ACTIVE   -      -
pl bkup-vol-01    bkup-vol    ENABLED  208331   -      ACTIVE   -      -
sd schost-105-01  bkup-vol-01 ENABLED  104139   0      -        -      -
sd schost-106-01  bkup-vol-01 ENABLED  104139   0      -        -      -
 
v  vol01          gen         ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01    ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01    ENABLED  104139   0      -        -      -
pl vol01-02       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02    ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02    ENABLED  104139   0      -        -      -
pl vol01-03       vol01       ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03    ENABLED  5        LOG    -        -      -
[Synchronisieren Sie die Plattengruppe mit dem Cluster Framework:]
# scconf -c -D name=schost-1,sync
[Überprüfen Sie die Dateisysteme:]
# fsck -y /dev/vx/rdsk/schost-1/bkup-vol
[Kopieren Sie bkup-vol auf das Sicherungsgerät:]
# ufsdump 0ucf /dev/rmt/0 /dev/vx/rdsk/schost-1/bkup-vol
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/vx/dsk/schost-2/bkup-vol to /dev/rmt/0.
  ...
  DUMP: DUMP IS DONE
[Entfernen Sie den bkup-Datenträger:]
# vxedit -rf rm bkup-vol
[Synchronisieren Sie die Plattengruppe:]
# scconf -c -D name=schost-1,sync

Überblick über das Wiederherstellen von Cluster-Dateien

Der ufsrestore(1M)-Befehl kopiert Dateien aus Sicherungskopien, die mit dem ufsdump (1M)-Befehl erstellt wurden, auf die zum aktuellen Arbeitsverzeichnis gehörende Platte. Mit ufsrestore können Sie eine komplette Dateisystemhierarchie von einem Speicherabbild auf Ebene 0 bis zu den darauf folgenden inkrementellen Speicherabbildern neu laden oder eine oder mehrere einzelne Datei(en) von jedem beliebigen Abbildband wiederherstellen. Wenn Sie ufsrestore als Superbenutzer ausführen, werden die Dateien mit dem ursprünglichen Besitzer, dem ursprünglichen Zeitpunkt der letzten Änderung und dem ursprünglichen Modus (Berechtigungen) wiederhergestellt.

Bevor Sie mit der Wiederherstellung von Dateien oder Dateisystemen beginnen, benötigen Sie folgende Informationen:

Wiederherstellen von Cluster-Dateien

Tabelle 9–2 Task Map: Wiederherstellen von Cluster-Dateien

Schritt 

Anweisungen siehe… 

Interaktives Wiederherstellen von Dateien anhand der Solaris-Wiederherstellungsverfahren für Solstice DiskSuite/Solaris Volume Manager 

So stellen Sie einzelne Dateien interaktiv wieder her (Solstice DiskSuite/Solaris Volume Manager)

Wiederherstellen des Root-Dateisystems (/) für Solstice DiskSuite/Solaris Volume Manager

So stellen Sie das Root-Dateisystem (/) wieder her (Solstice DiskSuite/Solaris Volume Manager)

  

So stellen Sie ein Root-Dateisystem (/) wieder her, das sich auf einem Solstice DiskSuite-Metagerät oder einem Solaris Volume Manager-Datenträger befand

Wiederherstellen eines nicht eingekapselten Root-Dateisystems (/) für VERITAS Volume Manager

SPARC: So stellen Sie ein nicht eingekapseltens Root-Dateisystem (/) wieder her (VERITAS Volume Manager)

Wiederherstellen eines eingekapselten Root-Dateisystems (/) für VERITAS Volume Manager

SPARC: So stellen Sie ein eingekapseltes Root-Dateisystem (/) wieder her (VERITAS Volume Manager)

So stellen Sie einzelne Dateien interaktiv wieder her (Solstice DiskSuite/Solaris Volume Manager)

Verwenden Sie dieses Verfahren zur Wiederherstellung einer oder mehrerer einzelner Datei(en). Stellen Sie sicher, dass der Cluster vor der Ausführung des Wiederherstellungsverfahrens problemlos läuft.

  1. Melden Sie sich bei dem wiederherzustellenden Knoten als Superbenutzer an.

  2. Stoppen Sie alle Datendienste, die auf die wiederherzustellenden Dateien zugreifen.


     # scswitch -z -g Ressourcengruppe[,...] -h ““
    

  3. Stellen Sie die Dateien mit dem ufsrestore-Befehl wieder her.

So stellen Sie das Root-Dateisystem (/) wieder her (Solstice DiskSuite/Solaris Volume Manager)

Verwenden Sie dieses Verfahren, um die Root-Dateisysteme (/) auf einer neuen Platte wiederherzustellen, zum Beispiel nach dem Ersetzen einer fehlerhaften Root-Platte. Der wiederherzustellende Knoten sollte nicht gebootet werden. Stellen Sie sicher, dass der Cluster vor der Ausführung des Wiederherstellungsverfahrens problemlos läuft.


Hinweis –

Sie müssen die neue Platte mit demselben Format wie die fehlerhafte Platte partitionieren; identifizieren Sie deshalb das Partitionsschema, bevor Sie mit diesem Verfahren beginnen, und erstellen Sie die benötigten Dateisysteme.


  1. Melden Sie sich bei dem Cluster-Knoten als Superbenutzer an, der Zugriff auf den Metasatz hat und nicht der wiederherzustellende Knoten ist.

  2. Entfernen Sie den Hostnamen des wiederherzustellenden Knotens aus allen Metasätzen.

    Führen Sie diesen Befehl von einem anderen als dem zu entfernenden Knoten im Metasatz aus.


    # metaset -s Satzname -f -d -h Knotenliste
    

    -s Satzname

    Gibt den Plattensatznamen an.

    -f

    Erzwingt das Entfernen.

    -d

    Löscht aus dem Plattensatz

    -h Knotenliste

    Gibt den Namen des Knotens an, der vom Plattensatz zu löschen ist.

  3. Ersetzen Sie die fehlerhafte Platte auf dem Knoten, dessen Root-Dateisystem (/) wiederhergestellt wird.

    Informationen zum Verfahren zum Ersetzen von Platten finden Sie in der Dokumentation zu Ihrem Server.

  4. Booten Sie den Knoten, der wiederhergestellt wird.

    • Wenn Sie die Solaris-CD-Rom verwenden:

      • SPARC: Geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:


        ok boot cdrom -s
        

      • x86: Legen Sie die CD in das CD-Laufwerk des Systems ein und booten Sie das System, indem Sie es herunterfahren und anschließend neu starten. Geben Sie im Bildschirm für die aktuellen Boot-Parameter folgenden Befehl ein:


                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
        

    • Wenn Sie einen Solaris JumpStartTM-Server verwenden:

      • SPARC: Geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:


        ok boot net -s
        

      • x86: Booten Sie das System, indem Sie es herunterfahren und anschließend neu starten. Geben Sie im Bildschirm für die aktuellen Boot-Parameter folgenden Befehl ein:


                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
        

  5. Erstellen Sie alle Partitionen und lagern Sie die Root-Platte mit dem format(1M)-Befehl aus.

    Erstellen Sie das ursprüngliche Partitionsschema der fehlerhaften Platte neu.

  6. Erstellen Sie das Root-Dateisystem (/) und die benötigten restlichen Dateisysteme mit dem newfs(1M)-Befehl.

    Erstellen Sie die ursprünglich auf der fehlerhaften Platte vorhandenen Dateisysteme.


    Hinweis –

    Vergessen Sie nicht, das /global/.devices/node@nodeid-Dateisystem zu erstellen.


  7. Hängen Sie das Root-Dateisystem (/) in einem temporären Einhängepunkt ein.


    # mount Gerät temp-Einhängepunkt
    

  8. Verwenden Sie zur Wiederherstellung des Root-Dateisystems (/) folgende Befehle.


    # cd temp_Einhängepunkt
    # ufsrestore rvf Abbildgerät
    # rm restoresymtable
    # cd /
    # umount temp-mountpoint
    # fsck Im raw-Modus betriebenes Plattengerät
    

    Das Dateisystem ist nun wiederhergestellt.

  9. Installieren Sie einen neuen Boot-Block auf der neuen Platte.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk Im raw-Modus betriebenes Plattengerät
    

  10. Booten Sie den Knoten im Einzelbenutzermodus neu.


    # reboot -- "-s"

  11. Ersetzen Sie die Platten-ID mit dem scdidadm(1M)-Befehl.


    # scdidadm -R Root_Platte
    

  12. Verwenden Sie den metadb(1M)-Befehl zur Wiederherstellung der Zustands-Datenbankreplikate.


    # metadb -c Kopien -af Im raw-Modus betriebenes Plattengerät
    

    -c Kopien

    Gibt die Anzahl der zu erstellenden Replikate an.

    -f Im_raw-Modus_betriebenes_Plattengerät

    Das im raw-Modus betriebene Plattengerät, auf dem die Replikate erstellt werden sollen.

    -a

    Fügt die Replikate hinzu.

  13. Booten Sie den Knoten im Cluster-Modus neu.

    1. Starten Sie den Vorgang zum Neubooten.


      # reboot
      

      Während dieses Bootvorgangs wird möglicherweise eine Fehler- oder Warnmeldung angezeigt, die mit folgender Anweisung schließt:


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. Drücken Sie Strg-D, um im Mehrbenutzermodus zu booten.

  14. Verwenden Sie von einem anderen als dem wiederhergestellten Cluster-Knoten den metaset-Befehl, um allen Metasätzen den wiederhergestellten Knoten wieder hinzuzufügen.


    phys-schost-2# metaset -s Satzname -a -h Knotenliste
    

    -a

    Erstellt den Host und fügt ihn dem Plattensatz hinzu.

    Der Knoten wird im Cluster-Modus neu gebootet. Der Cluster ist betriebsbereit.

Beispiel — Wiederherstellen des Root-Dateisystems (/) (Solstice DiskSuite/Solaris Volume Manager)

Das nachstehende Beispiel zeigt das Root-Dateisystem (/), das vom Plattengerät /dev/rmt/0 auf dem Knoten phys-schost-1 wiederhergestellt wurde. Der metaset-Befehl wird von einem anderen Knoten im Cluster (phys-schost-2) ausgeführt. Dabei wird der Knoten phys-schost-1 zuerst vom Plattensatz schost-1 entfernt und diesem später wieder hinzugefügt. Alle anderen Befehle werden von phys-schost-1 ausgeführt. Auf /dev/rdsk/c0t0d0s0 wird ein neuer Boot-Block erstellt, und auf /dev/rdsk/c0t0d0s4 werden drei Zustands-Datenbankreplikate für Zustandsdaten wieder erstellt.


[Melden Sie sich auf einem anderen als dem wiederherzustellenden Cluster-Knoten als Superbenutzer an.]
[Entfernen Sie den Knoten aus dem Metasatz:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Ersetzen Sie die fehlerhafte Platte und booten Sie den Knoten:]

Booten des Knotens mit der Solaris-CD-Rom:


[Verwenden Sie format und newfs, um Partitionen und Dateisysteme neu zu erstellen.]
[Hängen Sie das Root-Dateisystem in einem temporären Einhängepunkt ein:]
# mount /dev/dsk/c0t0d0s0 /a
[Stellen Sie das Root-Dateisystem wieder her:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Installieren Sie einen neuen Boot-Block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Booten Sie im Einzelbenutzermodus neu:]
# reboot -- "-s"
[Ersetzen Sie die Platten-ID:]
# scdidadm -R /dev/dsk/c0t0d0
[Stellen Sie die Datenbankreplikate wieder her:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Press Control-d to boot into multiuser mode.
[Fügen Sie den Knoten wieder dem Metasatz hinzu:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

So stellen Sie ein Root-Dateisystem (/) wieder her, das sich auf einem Solstice DiskSuite-Metagerät oder einem Solaris Volume Manager-Datenträger befand

Stellen Sie mit diesem Verfahren ein Root-Dateisystem (/) wieder her, das sich auf einem Solstice DiskSuite-Metagerät oder einem Solaris Volume Manager-Datenträger befand, als die Sicherungen durchgeführt wurden. Dieses Verfahren wenden Sie in Fällen an, in denen zum Beispiel eine Root-Platte beschädigt ist und durch eine neue Platte ersetzt wird. Der wiederherzustellende Knoten sollte nicht gebootet werden. Stellen Sie sicher, dass der Cluster vor der Ausführung des Wiederherstellungsverfahrens problemlos läuft.


Hinweis –

Sie müssen die neue Platte mit demselben Format wie die fehlerhafte Platte partitionieren; identifizieren Sie deshalb das Partitionsschema, bevor Sie mit diesem Verfahren beginnen, und erstellen Sie die benötigten Dateisysteme.


  1. Melden Sie sich bei dem Cluster-Knoten als Superbenutzer an, der Zugriff auf den Metasatz hat und nicht der wiederherzustellende Knoten ist.

  2. Entfernen Sie den Hostnamen des wiederherzustellenden Knotens aus allen Metasätzen.


    # metaset -s Satzname -f -d -h Knotenliste
    

    -s Satzname

    Gibt den Metasatznamen an.

    -f

    Erzwingt das Entfernen.

    -d

    Löscht vom Metasatz.

    -h Knotenliste

    Gibt den Namen des Knotens an, der aus dem Metasatz gelöscht werden soll.

  3. Ersetzen Sie die fehlerhafte Platte auf dem Knoten, dessen Root-Dateisystem (/) wiederhergestellt wird.

    Informationen zum Verfahren zum Ersetzen von Platten finden Sie in der Dokumentation zu Ihrem Server.

  4. Booten Sie den Knoten, der wiederhergestellt wird.

    • Wenn Sie die Solaris-CD-Rom verwenden:

      • SPARC: Geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:


        ok boot cdrom -s
        

      • x86: Legen Sie die CD in das CD-Laufwerk des Systems ein und booten Sie das System, indem Sie es herunterfahren und anschließend neu starten. Geben Sie im Bildschirm für die aktuellen Boot-Parameter folgenden Befehl ein:


                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
        

    • Wenn Sie einen Solaris JumpStartTM-Server verwenden:

      • SPARC: Geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:


        ok boot net -s
        

      • x86: Booten Sie das System, indem Sie es herunterfahren und anschließend neu starten. Geben Sie im Bildschirm für die aktuellen Boot-Parameter folgenden Befehl ein:


                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
        

  5. Erstellen Sie alle Partitionen und lagern Sie die Root-Platte mit dem format-Befehl aus.

    Erstellen Sie das ursprüngliche Partitionsschema der fehlerhaften Platte neu.

  6. Erstellen Sie das Root-Dateisystem (/) und die restlichen ggf. benötigten Dateisysteme mit dem newfs-Befehl.

    Erstellen Sie die ursprünglich auf der fehlerhaften Platte vorhandenen Dateisysteme.


    Hinweis –

    Vergessen Sie nicht, das /global/.devices/node@nodeid-Dateisystem zu erstellen.


  7. Hängen Sie das Root-Dateisystem (/) in einem temporären Einhängepunkt ein.


    # mount Gerät temp_Einhängepunkt
    

  8. Verwenden Sie zur Wiederherstellung des Root-Dateisystems (/) folgende Befehle.


    # cd temp_Einhängepunkt
    # ufsrestore rvf Abbildgerät
    # rm restoresymtable
    

  9. Installieren Sie einen neuen Boot-Block auf der neuen Platte.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk Im raw-Modus betriebenes Plattengerät
    

  10. Entfernen Sie die Zeilen mit MDD-Root-Informationen aus der /temp_Einhängepunkt/etc/system-Datei.


    * Begin MDD root info (do not edit)
    forceload: misc/md_trans
    forceload: misc/md_raid
    forceload: misc/md_mirror
    forceload: misc/md_hotspares
    forceload: misc/md_stripe
    forceload: drv/pcipsy
    forceload: drv/glm
    forceload: drv/sd
    rootdev:/pseudo/md@0:0,10,blk
    * End MDD root info (do not edit)

  11. Ändern Sie die Datei /temp-mountpoint/etc/vfstab, um den Root-Eintrag von einem Solstice DiskSuite-Metagerät oder einem Solaris Volume Manager-Datenträger in einen entsprechenden normalen Bereich für jedes Dateisystem auf der Root-Platte zu ändern, die sich auf dem Metagerät oder Datenträger befindet.


    Example: 
    Change from—
    /dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -
    
    Change to—
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /      ufs   1     no       -

  12. Hängen Sie das temporäre Dateisystem aus, und prüfen Sie das im raw-Modus betriebene Plattengerät.


    # cd /
    # umount temp-Einhängepunkt
    # fsck Im raw-Modus betriebenes Plattengerät
    

  13. Booten Sie den Knoten im Einzelbenutzermodus neu.


    # reboot -- "-s"

  14. Ersetzen Sie die Platten-ID mit dem scdidadm-Befehl.


    # scdidadm -R Root_Platte
    

  15. Verwenden Sie den metadb-Befehl zur erneuten Erstellung der Zustands-Datenbankreplikate.


    # metadb -c Kopien -af Im raw-Modus betriebenes Plattengerät
    

    -c Kopien

    Gibt die Anzahl der zu erstellenden Replikate an.

    -af Im_raw-Modus_betriebenes_Plattengerät

    Erstellt die ursprünglichen Zustands-Datenbankreplikate auf dem genannten im raw-Modus betriebenen Plattengerät.

  16. Booten Sie den Knoten im Cluster-Modus neu.

    1. Starten Sie den Vorgang zum Neubooten.


      # reboot
      

      Während dieses Bootvorgangs werden Fehler- oder Warnmeldungen angezeigt, die mit folgender Anweisung schließen:


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. Drücken Sie Strg-D, um im Mehrbenutzermodus zu booten.

  17. Verwenden Sie von einem anderen als dem wiederhergestellten Cluster-Knoten den metaset-Befehl, um allen Metasätzen den wiederhergestellten Knoten wieder hinzuzufügen.


    phys-schost-2# metaset -s Satzname -a -h Knotenliste
    

    -a

    Fügt (erstellt) den Metasatz hinzu.

    Konfigurieren Sie mithilfe der Solstice DiskSuite-Dokumentation das Metagerät oder den Datenträger/Spiegel für das Root-System (/).

    Der Knoten wird im Cluster-Modus neu gebootet. Der Cluster ist betriebsbereit.

Beispiel—Wiederherstellen eines Root-Dateisystems(/), das sich auf einem Solstice DiskSuite-Metagerät oder Solaris Volume Manager-Datenträger befand

Das nachstehende Beispiel zeigt das Root-Dateisystem (/), das vom Plattengerät /dev/rmt/0 auf dem Knoten phys-schost-1 wiederhergestellt wurde. Der metaset-Befehl wird von einem anderen Knoten im Cluster (phys-schost-2) ausgeführt. Dabei wird der Knoten phys-schost-1 zuerst vom Metagerät schost-1 entfernt und diesem später wieder hinzugefügt. Alle anderen Befehle werden von phys-schost-1 ausgeführt. Auf /dev/rdsk/c0t0d0s0 wird ein neuer Boot-Block erstellt und auf /dev/rdsk/c0t0d0s4 werden drei Zustands-Datenbankreplikate für Zustandsdaten wieder erstellt.


[Melden Sie sich bei einem anderen als dem wiederherzustellenden Cluster-Knoten mit Zugriff auf das Metasatz als Superbenutzer an.]
[Entfernen Sie den Knoten aus dem Metasatz:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Ersetzen Sie die fehlerhafte Platte, und booten Sie den Knoten:]

Booten des Knotens mit der Solaris-CD-Rom:


[Verwenden Sie format und newfs, um Partitionen und Dateisysteme neu zu erstellen..]
[Hängen Sie das Root-Dateisystem in einem temporären Einhängepunkt ein:]
# mount /dev/dsk/c0t0d0s0 /a
[Stellen Sie das Root-Dateisystem wieder her:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Löschen Sie in der Datei /temp-Einhängepunkt/etc/system die Zeilen für MDD-Root-Informationen:]
* Begin MDD root info (do not edit)
forceload: misc/md_trans
forceload: misc/md_raid
forceload: misc/md_mirror
forceload: misc/md_hotspares
forceload: misc/md_stripe
forceload: drv/pcipsy
forceload: drv/glm
forceload: drv/sd
rootdev:/pseudo/md@0:0,10,blk
* End MDD root info (do not edit)
[Bearbeiten Sie die Datei /temp-mountpoint/etc/vfstab]
Example: 
Change from—
/dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -

Change to—
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -
[Hängen Sie das temporäre Dateisystem aus, und prüfen Sie das im raw-Modus betriebene Plattengerät:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Booten Sie im Einzelbenutzermodus neu:]
# reboot -- "-s"
[Ersetzen Sie die Platten-ID:]
# scdidadm -R /dev/dsk/c0t0d0
[Stellen Sie die Datenbankreplikate wieder her:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
# reboot
Type Control-d to boot into multiuser mode.
[Fügen Sie den Knoten wieder dem Metasatz hinzu:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

SPARC: So stellen Sie ein nicht eingekapseltens Root-Dateisystem (/) wieder her (VERITAS Volume Manager)

Verwenden Sie dieses Verfahren zur Wiederherstellung eines nicht eingekapselten Root-Dateisystems (/) auf einem Knoten. Der wiederherzustellende Knoten sollte nicht gebootet werden. Stellen Sie sicher, dass der Cluster vor der Ausführung des Wiederherstellungsverfahrens problemlos läuft.


Hinweis –

Sie müssen die neue Platte mit demselben Format wie die fehlerhafte Platte partitionieren; identifizieren Sie deshalb das Partitionsschema, bevor Sie mit diesem Verfahren beginnen, und erstellen Sie die benötigten Dateisysteme.


  1. Ersetzen Sie die fehlerhafte Platte auf dem Knoten, dessen Root-Dateisystem wiederhergestellt wird.

    Informationen zum Verfahren zum Ersetzen von Platten finden Sie in der Dokumentation zu Ihrem Server.

  2. Booten Sie den Knoten, der wiederhergestellt wird.

    • Wenn Sie die Solaris-CD-Rom verwenden, geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:


      ok boot cdrom -s
      

    • Wenn Sie einen Solaris JumpStartTM-Server verwenden, geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:


      ok boot net -s
      

  3. Erstellen Sie alle Partitionen und lagern Sie die Root-Platte mit dem format-Befehl aus.

    Erstellen Sie das ursprüngliche Partitionsschema der fehlerhaften Platte neu.

  4. Erstellen Sie das Root-Dateisystem (/) und die restlichen ggf. benötigten Dateisysteme mit dem newfs-Befehl.

    Erstellen Sie die ursprünglich auf der fehlerhaften Platte vorhandenen Dateisysteme.


    Hinweis –

    Vergessen Sie nicht, das /global/.devices/node@nodeid-Dateisystem zu erstellen.


  5. Hängen Sie das Root-Dateisystem (/) in einem temporären Einhängepunkt ein.


    # mount Gerät temp-Einhängepunkt
    

  6. Stellen Sie das Root-Dateisystem (/) aus der Sicherungskopie wieder her, hängen Sie das Dateisystem aus, und prüfen Sie es.


    # cd temp_Einhängepunkt
    # ufsrestore rvf Abbildgerät
    # rm restoresymtable
    # cd /
    # umount temp_Einhängepunkt
    # fsck Im raw-Modus betriebenes Plattengerät
    

    Das Dateisystem ist nun wiederhergestellt.

  7. Installieren Sie einen neuen Boot-Block auf der neuen Platte.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk Im raw-Modus betriebenes Plattengerät
    

  8. Booten Sie den Knoten im Einzelbenutzermodus neu.

    1. Starten Sie den Vorgang zum Neubooten.


      # reboot -- "-s"

      Während dieses Bootvorgangs werden Fehler- oder Warnmeldungen angezeigt, die mit folgender Anweisung schließen:


      Type control-d to proceed with normal startup,
      (or give root password for system maintenance):

    2. Geben Sie das root-Passwort ein.

  9. Aktualisieren Sie die Platten-ID mit dem scdidadm-Befehl.


     # scdidadm -R /dev/rdsk/Plattengerät
    

  10. Drücken Sie Steuerung-D, um im Mehrbenutzermodus fortzufahren.

    Der Knoten wird im Cluster-Modus neu gebootet. Der Cluster ist betriebsbereit.

SPARC: Beispiel — Wiederherstellen eines nicht eingekapselten Root-Dateisystems (/) (VERITAS Volume Manager)

Das nachstehende Beispiel zeigt ein nicht eingekapseltes Root-Dateisystem (/), das vom Plattengerät /dev/rmt/0 auf dem Knoten phys-schost-1 wiederhergestellt wurde.


[Ersetzen Sie die fehlerhafte Platte und booten Sie den Knoten:]

Booten Sie den Knoten mit der Solaris-CD-Rom. Geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:


ok boot cdrom -s
...
[Verwenden Sie format und newfs, um Partitionen und Dateisysteme neu zu erstellen]
[Hängen Sie das Root-Dateisystem in einem temporären Einhängepunkt ein:]
# mount /dev/dsk/c0t0d0s0 /a
[Stellen Sie das Root-Dateisystem wieder her:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Installieren Sie einen neuen Boot-Block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Booten Sie im Einzelbenutzermodus neu:]
# reboot -- "-s"
[Aktualisieren Sie die Platten-ID:]
# scdidadm -R /dev/rdsk/c0t0d0
[Drücken Sie Strg-D, um im Mehrbenutzermodus fortzufahren]

SPARC: So stellen Sie ein eingekapseltes Root-Dateisystem (/) wieder her (VERITAS Volume Manager)

Mit diesem Verfahren stellen Sie ein eingekapseltes Root-Dateisystem (/) auf einem Knoten wieder her. Der wiederherzustellende Knoten sollte nicht gebootet werden. Stellen Sie sicher, dass der Cluster vor der Ausführung des Wiederherstellungsverfahrens problemlos läuft.


Hinweis –

Sie müssen die neue Platte mit demselben Format wie die fehlerhafte Platte partitionieren; identifizieren Sie deshalb das Partitionsschema, bevor Sie mit diesem Verfahren beginnen, und erstellen Sie die benötigten Dateisysteme.


  1. Ersetzen Sie die fehlerhafte Platte auf dem Knoten, dessen Root-Dateisystem wiederhergestellt wird.

    Informationen zum Verfahren zum Ersetzen von Platten finden Sie in der Dokumentation zu Ihrem Server.

  2. Booten Sie den Knoten, der wiederhergestellt wird.

    • Wenn Sie die Solaris-CD-Rom verwenden, geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:


      ok boot cdrom -s
      

    • Wenn Sie einen Solaris JumpStartTM-Server verwenden, geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:


      ok boot net -s
      

  3. Erstellen Sie alle Partitionen und lagern Sie die Root-Platte mit dem format-Befehl aus.

    Erstellen Sie das ursprüngliche Partitionsschema der fehlerhaften Platte neu.

  4. Erstellen Sie das Root-Dateisystem (/) und die restlichen ggf. benötigten Dateisysteme mit dem newfs-Befehl.

    Erstellen Sie die ursprünglich auf der fehlerhaften Platte vorhandenen Dateisysteme.


    Hinweis –

    Vergessen Sie nicht, das /global/.devices/node@nodeid-Dateisystem zu erstellen.


  5. Hängen Sie das Root-Dateisystem (/) in einem temporären Einhängepunkt ein.


    # mount Gerät temp-Einhängepunkt
    

  6. Stellen Sie das Root-Dateisystem (/) aus der Sicherungskopie wieder her.


    # cd temp_Einhängepunkt
    # ufsrestore rvf Abbildgerät
    # rm restoresymtable
    

  7. Erstellen Sie eine leere install-db-Datei.

    Diese versetzt den Knoten beim nächsten Neubooten in VxVM-Installationsmodus.


     # touch /temp_Einhängepunkt /etc/vx/reconfig.d/state.d/install-db
    

  8. Entfernen Sie die folgenden Einträge aus der Datei /temp_Einhängepunkt/etc/system oder kommentieren Sie diese aus.


    * rootdev:/pseudo/vxio@0:0
    * set vxio:vol_rootdev_is_volume=1

  9. Bearbeiten Sie die Datei /temp-Einhängepunkt/etc/vfstab und ersetzen Sie alle VxVM-Einhängepunkte durch Standard-Plattengeräte für die Root-Platte, beispielsweise /dev/dsk/c0t0d0s0.


    Example: 
    Change from—
    /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol /      ufs   1     no -
    
    Change to—
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -

  10. Hängen Sie das temporäre Dateisystem aus, und prüfen Sie das Dateisystem.


    # cd /
    # umount temp_Einhängepunkt
    # fsck Im raw-Modus betriebenes Plattengerät
    

  11. Installieren Sie den Boot-Block auf der neuen Platte.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk Im raw-Modus betriebenes Plattengerät
    

  12. Booten Sie den Knoten im Einzelbenutzermodus neu.


    # reboot -- "-s"

  13. Aktualisieren Sie die Platten-ID mit scdidadm(1M).


    # scdidadm -R /dev/rdsk/c0t0d0
    

  14. Führen Sie vxinstall aus, um die Platte zu einzukapseln und neu zu booten.


     # vxinstall
    

  15. Wenn es bei der Unternummer zu einem Konflikt mit einem anderen System kommt, hängen Sie die globalen Geräte aus, und geben Sie der Plattengruppe eine neue Unternummer.

    • Hängen Sie das Dateisystem globaler Geräte auf dem Cluster-Knoten aus.


       # umount /global/.devices/node@nodeid
      

    • Geben Sie der Plattengruppe rootdg auf dem Cluster-Knoten eine neue Unternummer.


      # vxdg reminor rootdg 100
      

  16. Fahren Sie den Knoten herunter, und booten Sie ihn im Cluster-Modus neu.


    # shutdown -g0 -i6 -y
    

SPARC: Beispiel — Wiederherstellen eines eingekapselten Root-Dateisystems (/) (VERITAS Volume Manager)

Das nachstehende Beispiel zeigt ein eingekapseltes Root-Dateisystem (/), das vom Plattengerät /dev/rmt/0 auf dem Knoten phys-schost-1 wiederhergestellt wurde.


[Ersetzen Sie die fehlerhafte Platte und booten Sie den Knoten:]

Booten Sie den Knoten mit der Solaris-CD-Rom. Geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:


ok boot cdrom -s
...
[Verwenden Sie format und newfs, um Partitionen und Dateisysteme neu zu erstellen]
[Hängen Sie das Root-Dateisystem in einem temporären Einhängepunkt ein:]
# mount /dev/dsk/c0t0d0s0 /a
[Stellen Sie das Root-Dateisystem wieder her:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Erstellen Sie eine leere install-db-Datei:]
# touch /a/etc/vx/reconfig.d/state.d/install-db
[Bearbeiten Sie /etc/system im temporären Dateisystem und löschen Sie folgende Einträge oder kommentieren Sie sie aus::]
	# rootdev:/pseudo/vxio@0:0
	# set vxio:vol_rootdev_is_volume=1
[Bearbeiten Sie /etc/vfstab im temporären Dateisystem:]
Example: 
Change from—
/dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no-

Change to—
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
[Hängen Sie das temporäre Dateisystem aus und überprüfen Sie anschließend das Dateisystem:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Installieren Sie einen neuen Boot-Block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0
[Booten Sie im Einzelbenutzermodus neu:]
# reboot -- "-s"
[Aktualisieren Sie die Platten-ID:]
# scdidadm -R /dev/rdsk/c0t0d0
[Führen Sie vxinstall aus:]
# vxinstall
Choose to encapsulate the root disk.
[Falls ein Konflikt bei der Unternummer auftritt, weisen Sie der rootdg-Datengruppe eine neue Unternummer zu:]
# umount /global/.devices/node@nodeid
# vxdg reminor rootdg 100
# shutdown -g0 -i6 -y

Weiterführende Informationen

Anweisungen zum Spiegeln der eingekapselten Root-Platte finden Sie im Sun Cluster Software Installation Guide for Solaris OS.