Sun Cluster Handbuch Systemverwaltung für Solaris OS

Kapitel 9 Sichern und Wiederherstellen eines Clusters

Die folgenden schrittweisen Anweisungen sind in diesem Kapitel beschrieben.

Sichern eines Clusters

Tabelle 9–1 Task Map: Sichern von Cluster-Dateien

Schritt 

Anweisungen siehe… 

Suchen der Namen der zu sichernden Dateisysteme 

So suchen Sie die Namen der zu sichernden Dateisysteme

Berechnen der erforderlichen Anzahl von Bändern, die zum Speichern einer kompletten Sicherung erforderlich sind 

So bestimmen Sie die Anzahl der erforderlichen Bänder für eine komplette Sicherung

Sichern des Root-Dateisystems 

So sichern Sie das Root-Dateisystem (/)

Durchführen einer Online-Sicherung für gespiegelte oder vernetzte Dateisysteme 

So führen Sie Online-Sicherungen für Spiegel durch (Solstice DiskSuite/Solaris Volume Manager)

 

SPARC: So führen Sie Online-Sicherungen für Datenträger durch (VERITAS Volume Manager)

ProcedureSo suchen Sie die Namen der zu sichernden Dateisysteme

Verwenden Sie dieses Verfahren, um die Namen der zu sichernden Dateisysteme zu bestimmen.

Schritte
  1. Zeigen Sie den Inhalt der /etc/vfstab-Datei an.

    Um diesen Befehl auszuführen, müssen Sie nicht Superuser sein oder eine entsprechende Rolle übernehmen.


    % more /etc/vfstab
    
  2. Suchen Sie in der Spalte mit den Einhängepunkten den Namen des Dateisystems, das Sie sichern möchten.

    Verwenden Sie diesen Namen beim Sichern des Dateisystems.


    % more /etc/vfstab 
    

Beispiel 9–1 Suchen von Namen für die zu sichernden Dateisysteme

Im folgenden Beispiel werden die Namen der verfügbaren, in der /etc/vfstab-Datei aufgelisteten Dateisysteme angezeigt.


% more /etc/vfstab
#device             device             mount  FS fsck  mount  mount
#to mount           to fsck            point  type     pass   at boot  options
#
#/dev/dsk/c1d0s2    /dev/rdsk/c1d0s2   /usr     ufs     1      yes      -
 f                  -                  /dev/fd  fd      -      no       -
 /proc              -                  /proc    proc    -      no       -
 /dev/dsk/c1t6d0s1  -                  -        swap    -      no       -
 /dev/dsk/c1t6d0s0  /dev/rdsk/c1t6d0s0 /        ufs     1      no       -
 /dev/dsk/c1t6d0s3  /dev/rdsk/c1t6d0s3 /cache   ufs     2      yes      -
 swap               -                  /tmp     tmpfs   -      yes      -

ProcedureSo bestimmen Sie die Anzahl der erforderlichen Bänder für eine komplette Sicherung

Verwenden Sie dieses Verfahren, um die Anzahl der Bänder zu berechnen, die Sie für die Sicherung eines Dateisystems benötigen.

Schritte
  1. Werden Sie Superuser oder übernehmen Sie eine entsprechende Rolle an dem Cluster-Knoten, den Sie sichern möchten.

  2. Schätzen Sie die Größe der Sicherungskopie in Bytes.


    # ufsdump S filesystem 
    
    S

    Zeigt die geschätzte Anzahl der Bytes an, die zum Durchführen der Sicherung erforderlich sind.

    filesystem

    Gibt den Namen des zu sichernden Dateisystems an.

  3. Teilen Sie die geschätzte Größe durch die Kapazität der Bänder um festzustellen, wie viele Bänder Sie benötigen.


Beispiel 9–2 Bestimmen der Anzahl der erforderlichen Bänder

Im nachfolgenden Beispiel passt der Umfang des Dateisystems mit 905,881,620 Bytes problemlos auf ein Band mit 4 GB (905,881,620 ÷ 4,000,000,000).


# ufsdump S /global/phys-schost-1
905881620

ProcedureSo sichern Sie das Root-Dateisystem (/)

Mit diesem Verfahren sichern Sie das Root-Dateisystem (/) eines Cluster-Knotens. Stellen Sie sich, dass der Cluster problemlos läuft, bevor Sie das Sicherungsverfahren durchführen.

Schritte
  1. Werden Sie Superuser oder übernehmen Sie eine entsprechende Rolle an dem Cluster-Knoten, den Sie sichern möchten.

  2. Schalten Sie alle laufenden Datendienste vom zu sichernden Knoten auf einen anderen Knoten im Cluster um.


    # scswitch -z -D disk-device-group[,...] -h node[,...]
    
    -z

    Führt die Umschaltung durch.

    -D disk-device-group

    Name der umzuschaltenden Plattengerätegruppe.

    -h node

    Name des Cluster-Knotens, auf den die Plattengerätegruppe umgeschaltet wird. Dieser Knoten wird zum neuen Primärknoten.

  3. Fahren Sie den Knoten herunter.


    # shutdown -g0 -y -i0
    
  4. Booten Sie den Cluster im Nicht-Cluster-Modus neu.

    • SPARC:


      ok boot -x
      
    • x86:


                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
      sd@0,0:a
      Boot args:
      
      Type  b [file-name] [boot-flags] <ENTER> to boot with options
      or    i <ENTER>                          to enter boot interpreter
      or    <ENTER>                            to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -x
      
  5. Sichern Sie das Root-Dateisystem (/).

    • Verwenden Sie folgenden Befehl, wenn die Root-Platte nicht eingekapselt ist.


      # ufsdump 0ucf dump-device /
      
    • Verwenden Sie folgenden Befehl, wenn die Root-Platte eingekapselt ist.


      # ufsdump 0ucf dump-device /dev/vx/rdsk/rootvol
      

    Weitere Informationen finden Sie in der Online-Dokumentation unter ufsdump(1M).

  6. Booten Sie den Knoten im Cluster-Modus neu.


    # init 6
    

Beispiel 9–3 Sichern des Root-Dateisystems (/)

Im folgenden Beispiel wird das Root-Dateisystem (/) auf dem Bandgerät /dev/rmt/0 gesichert.


# ufsdump 0ucf /dev/rmt/0 /
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 18 18:06:15 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/rdsk/c0t0d0s0 (phys-schost-1:/) to /dev/rmt/0
  DUMP: Mapping (Pass I) [regular files]
  DUMP: Mapping (Pass II) [directories]
  DUMP: Estimated 859086 blocks (419.48MB).
  DUMP: Dumping (Pass III) [directories]
  DUMP: Dumping (Pass IV) [regular files]
  DUMP: 859066 blocks (419.47MB) on 1 volume at 2495 KB/sec
  DUMP: DUMP IS DONE
  DUMP: Level 0 dump on Tue Apr 18 18:06:15 2000

ProcedureSo führen Sie Online-Sicherungen für Spiegel durch (Solstice DiskSuite/Solaris Volume Manager)

Ein gespiegeltes Solstice DiskSuite-Metagerät oder ein Solaris Volume Manager-Datenträger kann gesichert werden, ohne dass es/er ausgehängt wird bzw. ohne dass der gesamte Spiegel offline gesetzt wird. Einer der Unterspiegel muss vorübergehend offline genommen werden, wodurch die Spiegelung ausfällt; er kann jedoch wieder online gebracht und resynchronisiert werden, sobald die Sicherung abgeschlossen ist, ohne das System zu unterbrechen oder dem Benutzer den Datenzugriff zu verweigern. Bei der Verwendung von Spiegeln zur Online-Sicherung erhalten Sie einen "Schnappschuss" eines aktiven Dateisystems.

Möglicherweise kommt es zu Problemen, wenn das Programm unmittelbar vor der Ausführung des lockfs-Befehls Daten auf den Datenträger schreibt. Sie verhindern dieses Problem, indem Sie vorübergehend alle auf diesem Knoten laufenden Dienste stoppen. Stellen Sie außerdem sicher, dass der Cluster problemlos läuft, bevor Sie das Sicherungsverfahren durchführen.

Schritte
  1. Werden Sie Superuser oder übernehmen Sie eine entsprechende Rolle an dem Cluster-Knoten, den Sie sichern möchten.

  2. Verwenden Sie den Befehl metaset(1M), um festzulegen, welcher Knoten die Eigentümerschaft über den gesicherten Datenträger erhält.


    # metaset -s setname
    
    -s setname

    Gibt den Plattensatznamen an.

  3. Mit dem lockfs(1M)-Befehl und der -w-Option sperren Sie das Dateisystem für den Schreibzugriff.


    # lockfs -w mountpoint 
    

    Hinweis –

    Sie müssen das Dateisystem nur sperren, wenn der Spiegel ein UFS-Dateisystem enthält. Wenn beispielsweise das Solstice DiskSuite-Metagerät oder der Solaris Volume Manager-Datenträger als ein im raw-Modus betriebenes Gerät für die Datenbankverwaltungs-Software oder eine andere bestimmte Anwendung eingerichtet ist, ist die Verwendung des Befehls lockfs nicht erforderlich. Sie können jedoch das entsprechende Dienstprogramm Ihres Lieferanten ausführen, um die Pufferspeicher zu leeren und den Zugriff zu sperren.


  4. Mit dem metastat(1M)-Befehl bestimmen Sie die Namen der Unterspiegel.


    # metastat -s setname -p
    
    -p

    Zeigt den Status in einem der md.tab-Datei ähnlichen Format an.

  5. Mit dem metadetach(1M)-Befehl nehmen Sie einen Unterspiegel offline.


    # metadetach -s setname mirror submirror
    

    Hinweis –

    Der Lesezugriff erfolgt weiter über die verbleibenden Unterspiegel. Der offline genommene Unterspiegel ist jedoch nicht mehr synchronisiert, sobald der erste Schreibzugriff auf den Spiegel erfolgt. Diese Inkonsistenz wird korrigiert, sobald der offline genommene Unterspiegel wieder online gebracht wird. Sie müssen fsck nicht ausführen.


  6. Entsperren Sie die Dateisysteme und lassen Sie die Weiterführung der Schreibzugriffe zu. Verwenden Sie dazu den lockfs-Befehl mit der Option -u.


    # lockfs -u mountpoint 
    
  7. Führen Sie eine Dateisystemprüfung durch.


    # fsck /dev/md/diskset/rdsk/submirror
    
  8. Sichern Sie die den offline genommenen Unterspiegel auf einem Band oder einem anderen Speichermedium.

    Verwenden Sie den ufsdump(1M)-Befehl oder ein Sicherungsprogramm, das Sie normalerweise verwenden.


    # ufsdump 0ucf dump-device submirror
    

    Hinweis –

    Verwenden Sie den Namen des im raw-Modus betriebenen Geräts (/rdsk) für den Unterspiegel anstelle des Block-Gerätenamens (/dsk).


  9. Mit dem metattach(1M)-Befehl bringen Sie das Metagerät wieder online.


    # metattach -s setname mirror submirror
    

    Wenn das Metagerät oder der Datenträger online gebracht wird, erfolgt automatisch eine Resynchronisierung mit dem Spiegel.

  10. Mit dem metastat-Befehl überprüfen Sie, ob der Unterspiegel resynchronisiert wird.


    # metastat -s setname mirror
    

Beispiel 9–4 Durchführen von Online-Sicherungen für Spiegel (Solstice DiskSuite/Solaris Volume Manager)

Im nachstehenden Beispiel ist der Cluster-Knoten phys-schost-1 der Besitzer des Metasatzes schost-1; aus diesem Grund wird das Sicherungsverfahren von phys-schost-1 aus durchgeführt. Der Spiegel /dev/md/schost-1/dsk/d0 besteht aus den Unterspiegeln d10 , d20 und d30.


[Determine the owner of the metaset:]
# metaset -s schost-1
Set name = schost-1, Set number = 1
Host                Owner
  phys-schost-1     Yes 
...
[Lock the file system from writes:] 
# lockfs -w /global/schost-1
[List the submirrors:]
# metastat -s schost-1 -p
schost-1/d0 -m schost-1/d10 schost-1/d20 schost-1/d30 1
schost-1/d10 1 1 d4s0
schost-1/d20 1 1 d6s0
schost-1/d30 1 1 d8s0
[Take a submirror offline:]
# metadetach -s schost-1 d0 d30
[Unlock the file system:]
# lockfs -u /
[Check the file system:]
# fsck /dev/md/schost-1/rdsk/d30
[Copy the submirror to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/md/schost-1/rdsk/d30
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/md/schost-1/rdsk/d30 to /dev/rdsk/c1t9d0s0.
  ...
  DUMP: DUMP IS DONE
[Bring the submirror back online:]
# metattach -s schost-1 d0 d30
schost-1/d0: submirror schost-1/d30 is attached
[Resync the submirror:]
# metastat -s schost-1 d0
schost-1/d0: Mirror
    Submirror 0: schost-0/d10
      State: Okay         
    Submirror 1: schost-0/d20
      State: Okay
    Submirror 2: schost-0/d30
      State: Resyncing
    Resync in progress: 42% done
    Pass: 1
    Read option: roundrobin (default)
...

ProcedureSPARC: So führen Sie Online-Sicherungen für Datenträger durch (VERITAS Volume Manager)

VxVM identifiziert einen gespiegelten Datenträger als Plex. Ein Plex kann gesichert werden, ohne ihn auszuhängen oder den ganzen Datenträger offline zu nehmen. Das geschieht durch das Erstellen einer Schnappschusskopie des Datenträgers und einer Sicherung dieses temporären Datenträgers, ohne das System zu stoppen oder den Benutzern den Datenzugriff zu verweigern.

Stellen Sie sich, dass der Cluster problemlos läuft, bevor Sie das Sicherungsverfahren durchführen.

Schritte
  1. Melden Sie sich an einem beliebigen Knoten im Cluster an und werden Sie Superuser, oder übernehmen Sie eine entsprechende Rolle am aktuellen Primärknoten für die Plattengruppe auf dem Cluster.

  2. Listen Sie die Plattengruppeninformationen auf.


    # vxprint -g diskgroup
    
  3. Führen Sie den scstat(1M)-Befehl aus, um festzustellen, auf welchem Knoten die Plattengruppe aktuell importiert ist, das heißt, welcher Knoten der Primärknoten der Plattengruppe ist.


    # scstat -D
    
    -D

    Zeigt den Status aller Plattengerätegruppen an.

  4. Erstellen Sie einen Schnappschuss des Datenträgers mit dem vxassist-Befehl.


    # vxassist -g diskgroup snapstart volume
    

    Hinweis –

    Das Erstellen eines Schnappschusses kann je nach Umfang Ihres Datenträgers längere Zeit in Anspruch nehmen.


  5. Überprüfen Sie, ob der neue Datenträger erstellt wurde.


    # vxprint -g diskgroup
    

    Sobald der Schnappschuss abgeschlossen ist, wird im Feld State der Status Snapdone für die ausgewählte Plattengruppe angezeigt.

  6. Stoppen Sie alle auf das Dateisystem zugreifenden Datendienste.


    #  scswitch -z -g resource-group[,...] -h ““ 
    

    Hinweis –

    Mit dem Stoppen aller Datendienste stellen Sie sicher, dass das Daten-Dateisystem richtig gesichert wird. Wenn keine Datendienste ausgeführt werden, müssen Sie Schritt 6 und Schritt 8 nicht ausführen.


  7. Erstellen Sie einen Sicherungsdatenträger mit dem Namen bkup-vol, und hängen Sie den Schnappschuss mit dem vxassist-Befehl an.


    # vxassist -g diskgroup snapshot volume bkup-vol
    
  8. Starten Sie sämtliche Datendienste, die in Schritt 6 angehalten wurden, mit dem scswitch(1M)-Befehl an.


    # scswitch -z -g resource-group[,...] -h node[,...]
    
  9. Überprüfen Sie mit dem vxprint-Befehl, ob der Datenträger jetzt an den neuen Datenträger bkup-vol angehängt ist.


    # vxprint -g diskgroup
    
  10. Registrieren Sie die Änderungen der Plattengruppenkonfiguration.


    # scconf -c -D name=diskgroup,sync
    
  11. Überprüfen Sie den Sicherungsdatenträger mit dem fsck-Befehl.


    # fsck -y /dev/vx/rdsk/diskgroup/bkup-vol
    
  12. Erstellen Sie eine Sicherungskopie des Datenträgers bkup-vol auf Band oder auf ein anderes Speichermedium.

    Verwenden Sie den Befehl ufsdump(1M) oder ein Sicherungsprogramm, das Sie normalerweise verwenden.


    # ufsdump 0ucf dump-device /dev/vx/dsk/diskgroup/bkup-vol
    
  13. Entfernen Sie den temporären Datenträger mit vxedit.


     # vxedit -rf rm bkup-vol
    
  14. Registrieren Sie die Änderungen der Plattengruppenkonfiguration mit dem scconf(1M)-Befehl.


    # scconf -c -D name=diskgroup,sync
    

Beispiel 9–5 SPARC: Durchführen von Online-Sicherungen für Datenträger (VERITAS Volume Manager)

Im folgenden Beispiel ist der Cluster-Knoten phys-schost-2 der Primäreigentümer der Plattengerätegruppe schost-1; deshalb wird das Sicherungsverfahren von phys-schost-2 durchgeführt. Der Datenträger /vo101 wird kopiert und dann an den neuen Datenträger bkup-vol angehängt.


[Become superuser or assume an equivalent role on the primary node.]
[Identify the current primary node for the disk device group:]
# scstat -D
-- Device Group Servers --
                         Device Group     Primary           Secondary
                         ------------     -------           ---------
 Device group servers:   rmt/1            -                 -
 Device group servers:   schost-1         phys-schost-2     phys-schost-1

-- Device Group Status --
                             Device Group        Status              
                             ------------        ------              
 Device group status:        rmt/1               Offline
 Device group status:        schost-1            Online
[List the disk device group information:]
# vxprint -g schost-1
TY NAME            ASSOC     KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
 
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
[Start the snapshot operation:]
# vxassist -g schost-1 snapstart vol01
[Verify the new volume was created:]
# vxprint -g schost-1
TY NAME            ASSOC    KSTATE    LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
  
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
pl vol01-04       vol01      ENABLED  208331   -      SNAPDONE -      -
sd schost-105-01  vol01-04   ENABLED  104139   0      -        -      -
sd schost-106-01  vol01-04   ENABLED  104139   0      -        -      -
[Stop data services, if necessary:]
# scswitch -z -g nfs-rg -h ““
[Create a copy of the volume:]
# vxassist -g schost-1 snapshot vol01 bkup-vol
[Restart data services, if necessary:]
# scswitch -z -g nfs-rg -h phys-schost-1
[Verify bkup-vol was created:]
# vxprint -g schost-1
TY NAME           ASSOC       KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1    -        -        -      -        -      -
 
dm schost-101     c1t1d0s2    -        17678493 -      -        -      -
...
 
v  bkup-vol       gen         ENABLED  204800   -      ACTIVE   -      -
pl bkup-vol-01    bkup-vol    ENABLED  208331   -      ACTIVE   -      -
sd schost-105-01  bkup-vol-01 ENABLED  104139   0      -        -      -
sd schost-106-01  bkup-vol-01 ENABLED  104139   0      -        -      -
 
v  vol01          gen         ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01    ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01    ENABLED  104139   0      -        -      -
pl vol01-02       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02    ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02    ENABLED  104139   0      -        -      -
pl vol01-03       vol01       ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03    ENABLED  5        LOG    -        -      -
[Synchronize the disk group with cluster framework:]
# scconf -c -D name=schost-1,sync
[Check the file systems:]
# fsck -y /dev/vx/rdsk/schost-1/bkup-vol
[Copy bkup-vol to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/vx/rdsk/schost-1/bkup-vol
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/vx/dsk/schost-2/bkup-vol to /dev/rmt/0.
  ...
  DUMP: DUMP IS DONE
[Remove the bkup-volume:]
# vxedit -rf rm bkup-vol
[Synchronize the disk group:]
# scconf -c -D name=schost-1,sync

Überblick über das Wiederherstellen von Cluster-Dateien

Der ufsrestore(1M) >-Befehl kopiert Dateien aus Sicherungskopien, die mit dem ufsdump(1M)-Befehl erstellt wurden, auf die zum aktuellen Arbeitsverzeichnis gehörende Platte. Mit ufsrestore können Sie eine komplette Dateisystemhierarchie von einem Speicherabbild auf Ebene 0 bis zu den darauf folgenden inkrementellen Speicherabbildern neu laden oder eine oder mehrere einzelne Datei(en) von jedem beliebigen Abbildband wiederherstellen. Wenn Sie ufsrestore als Superuser ausführen oder eine entsprechende Rolle übernehmen, werden die Dateien mit dem ursprünglichen Besitzer, dem ursprünglichen Zeitpunkt der letzten Änderung und dem ursprünglichen Modus (Berechtigungen) wiederhergestellt.

Bevor Sie mit der Wiederherstellung von Dateien oder Dateisystemen beginnen, benötigen Sie folgende Informationen:

Wiederherstellen von Cluster-Dateien

Tabelle 9–2 Task Map: Wiederherstellen von Cluster-Dateien

Schritt 

Anweisungen siehe… 

Interaktives Wiederherstellen von Dateien anhand der Solaris-Wiederherstellungsverfahren für Solstice DiskSuite/Solaris Volume Manager 

So stellen Sie einzelne Dateien interaktiv wieder her (Solstice DiskSuite/Solaris Volume Manager)

Wiederherstellen des Root-Dateisystems (/) für Solstice DiskSuite/Solaris Volume Manager

So stellen Sie das Root-Dateisystem (/) wieder her (Solstice DiskSuite/Solaris Volume Manager)

  

So stellen Sie ein Root-Dateisystem (/) wieder her, das sich auf einem Solstice DiskSuite-Metagerät oder einem Solaris Volume Manager-Datenträger befand

Für VERITAS Volume Manager Wiederherstellen eines nicht eingekapselten Root-Dateisystems ( /)

SPARC: So stellen Sie ein nicht eingekapseltens Root-Dateisystem (/) wieder her (VERITAS Volume Manager)

Für VERITAS Volume Manager Wiederherstellen eines eingekapselten Root-Dateisystems ( /)

SPARC: So stellen Sie ein eingekapseltes Root-Dateisystem (/) wieder her (VERITAS Volume Manager)

ProcedureSo stellen Sie einzelne Dateien interaktiv wieder her (Solstice DiskSuite/Solaris Volume Manager)

Verwenden Sie dieses Verfahren zur Wiederherstellung einer oder mehrerer einzelner Datei(en). Stellen Sie sicher, dass der Cluster vor der Ausführung des Wiederherstellungsverfahrens problemlos läuft.

Schritte
  1. Werden Sie Superuser oder übernehmen Sie eine entsprechende Rolle an dem Cluster-Knoten, den Sie wiederherstellen möchten.

  2. Stoppen Sie alle Datendienste, die auf die wiederherzustellenden Dateien zugreifen.


    # scswitch -z -g resource-group[,...] -h ““
    
  3. Stellen Sie die Dateien mit dem ufsrestore-Befehl wieder her.

ProcedureSo stellen Sie das Root-Dateisystem (/) wieder her (Solstice DiskSuite/Solaris Volume Manager)

Verwenden Sie dieses Verfahren, um die Root-Dateisysteme (/) auf einer neuen Platte wiederherzustellen, zum Beispiel nach dem Ersetzen einer fehlerhaften Root-Platte. Der wiederherzustellende Knoten sollte nicht gebootet werden. Stellen Sie sicher, dass der Cluster vor der Ausführung des Wiederherstellungsverfahrens problemlos läuft.


Hinweis –

Da Sie die neue Platte mit demselben Format partitionieren müssen wie die fehlerhafte Platte, ermitteln Sie vor Beginn dieses Verfahrens das Partitionierungsschema und erstellen Sie die Dateisysteme nach Bedarf neu.


Schritte
  1. Werden Sie Superuser oder übernehmen Sie eine entsprechende Rolle an einem Cluster-Knoten mit Zugriff auf die Datenträgersätze, mit dem der wiederherzustellende Knoten auch verbunden ist.

    Werden Sie Superuser oder übernehmen Sie eine entsprechende Rolle an einem anderen Knoten als dem zu wiederherstellenden.

  2. Entfernen Sie den Hostnamen des wiederherzustellenden Knotens aus allen Metasätzen.

    Führen Sie diesen Befehl von einem anderen als dem zu entfernenden Knoten im Metasatz aus.


    # metaset -s setname -f -d -h nodelist
    
    -s Satzname

    Gibt den Plattensatznamen an.

    -f

    Erzwingt das Entfernen.

    -d

    Löscht aus dem Plattensatz

    -h nodelist

    Gibt den Namen des Knotens an, der vom Plattensatz zu löschen ist.

  3. Stellen Sie die Dateisysteme root (/) und /usr wieder her.

    Zur Wiederherstellung der Dateisysteme root und /usr gehen Sie gemäß dem in Kapitel 26, Restoring Files and File Systems (Tasks) in System Administration Guide: Devices and File Systems beschriebenen Verfahren vor. Überspringen Sie den Schritt im Solaris-Verfahren zum Neustarten des Systems.


    Hinweis –

    Vergessen Sie nicht, das /global/.devices/node@nodeid-Dateisystem zu erstellen.


  4. Starten Sie den Knoten im Mehrfachbenutzermodus.


    # reboot
    
  5. Ersetzen Sie die Platten-ID mit dem scdidadm(1M)-Befehl.


    # scdidadm -R rootdisk
    
  6. Verwenden Sie den metadb(1M)-Befehl zum erneuten Erstellen der Zustands-Datenbankreplikate.


    # metadb -c copies -af raw-disk-device
    
    -c copies

    Gibt die Anzahl der zu erstellenden Replikate an.

    -f raw-disk-device

    Das im raw-Modus betriebene Plattengerät, auf dem die Replikate erstellt werden sollen.

    -a

    Fügt die Replikate hinzu.

  7. Verwenden Sie von einem anderen als dem wiederhergestellten Knoten den metaset-Befehl, um allen Plattensätzen den wiederhergestellten Knoten wieder hinzuzufügen.


    phys-schost-2# metaset -s setname -a -h nodelist
    
    -a

    Erstellt den Host und fügt ihn dem Plattensatz hinzu.

    Der Knoten wird im Cluster-Modus neu gebootet. Der Cluster ist betriebsbereit.


Beispiel 9–6 Wiederherstellen des Root-Dateisystems (/) (Solstice DiskSuite/Solaris Volume Manager)

Das nachstehende Beispiel zeigt das Root-Dateisystem (/), das vom Plattengerät /dev/rmt/0 auf dem Knoten phys-schost-1 wiederhergestellt wurde. Der metaset-Befehl wird von einem anderen Knoten im Cluster (phys-schost-2) ausgeführt. Dabei wird der Knoten phys-schost-1 zuerst vom Plattensatz schost-1 entfernt und diesem später wieder hinzugefügt. Alle anderen Befehle werden von phys-schost-1 ausgeführt. Auf /dev/rdsk/c0t0d0s0 wird ein neuer Boot-Block erstellt, und auf /dev/rdsk/c0t0d0s4 werden drei Zustands-Datenbankreplikate für Zustandsdaten neu erstellt.


[Become superuser or assume an equivalent role on a cluster node other than the node to be restored
.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]
Restore the root (/) and /usr file system using the procedure in the Solaris system administration documentation
 [Reboot:]
# reboot
[Replace the disk ID:]
# scdidadm -R /dev/dsk/c0t0d0
[Recreate state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

ProcedureSo stellen Sie ein Root-Dateisystem (/) wieder her, das sich auf einem Solstice DiskSuite-Metagerät oder einem Solaris Volume Manager-Datenträger befand

Stellen Sie mit diesem Verfahren ein Root-Dateisystem (/) wieder her, das sich auf einem Solstice DiskSuite-Metagerät oder einem Solaris Volume Manager-Datenträger befand, als die Sicherungen durchgeführt wurden. Dieses Verfahren wenden Sie in Fällen an, in denen zum Beispiel eine Root-Platte beschädigt ist und durch eine neue Platte ersetzt wird. Der wiederherzustellende Knoten sollte nicht gebootet werden. Stellen Sie sicher, dass der Cluster vor der Ausführung des Wiederherstellungsverfahrens problemlos läuft.


Hinweis –

Sie müssen die neue Platte mit demselben Format wie die fehlerhafte Platte partitionieren; identifizieren Sie deshalb das Partitionsschema, bevor Sie mit diesem Verfahren beginnen, und erstellen Sie die benötigten Dateisysteme.


Schritte
  1. Werden Sie Superuser oder übernehmen Sie eine entsprechende Rolle an einem Cluster-Knoten mit Zugriff auf den Plattensatz, der nicht dem Knoten entspricht, den Sie wiederherstellen möchten.

  2. Entfernen Sie den Hostnamen des wiederherzustellenden Knotens aus allen Plattensätzen.


    # metaset -s setname -f -d -h nodelist
    
    -s setname

    Gibt den Metasatznamen an.

    -f

    Erzwingt das Entfernen.

    -d

    Löscht vom Metasatz.

    -hnodelist

    Gibt den Namen des Knotens an, der aus dem Metasatz gelöscht werden soll.

  3. Ersetzen Sie die fehlerhafte Platte auf dem Knoten, dessen Root-Dateisystem (/) wiederhergestellt wird.

    Informationen zum Verfahren zum Ersetzen von Platten finden Sie in der Dokumentation zu Ihrem Server.

  4. Booten Sie den Knoten, der wiederhergestellt wird.

    • Wenn Sie die Solaris-CD-Rom verwenden:

      • SPARC: Geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:


        ok boot cdrom -s
        
      • x86: Legen Sie die CD in das CD-Laufwerk des Systems ein und booten Sie das System, indem Sie es herunterfahren und anschließend neu starten. Geben Sie im Bildschirm für die aktuellen Boot-Parameter folgenden Befehl ein:


                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
        
    • Wenn Sie einen Solaris JumpStartTM-Server verwenden:

      • SPARC: Geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:


        ok boot net -s
        
      • x86: Booten Sie das System, indem Sie es herunterfahren und anschließend neu starten. Geben Sie im Bildschirm für die aktuellen Boot-Parameter folgenden Befehl ein:


                             <<< Current Boot Parameters >>>
        Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@
        7,1/sd@0,0:a
        Boot args:
        
        Type b [file-name] [boot-flags] <ENTER> to boot with options
        or   i <ENTER>                          to enter boot interpreter
        or   <ENTER>                            to boot with defaults
        
                         <<< timeout in 5 seconds >>>
        Select (b)oot or (i)nterpreter: b -s
        
  5. Erstellen Sie alle Partitionen und lagern Sie die Root-Platte mit dem format-Befehl aus.

    Erstellen Sie das ursprüngliche Partitionsschema der fehlerhaften Platte neu.

  6. Erstellen Sie das Root-Dateisystem (/) und die restlichen ggf. benötigten Dateisysteme mit dem newfs-Befehl.

    Erstellen Sie die ursprünglich auf der fehlerhaften Platte vorhandenen Dateisysteme.


    Hinweis –

    Vergessen Sie nicht, das /global/.devices/node@nodeid-Dateisystem zu erstellen.


  7. Hängen Sie das Root-Dateisystem (/) in einem temporären Einhängepunkt ein.


    # mount device temp-mountpoint
    
  8. Verwenden Sie zur Wiederherstellung des Root-Dateisystems (/) folgende Befehle.


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    
  9. Installieren Sie einen neuen Boot-Block auf der neuen Platte.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk 
    raw-disk-device
    
  10. Entfernen Sie die Zeilen mit MDD-Root-Informationen aus der /temp_mountpoint/etc/system-Datei.


    * Begin MDD root info (do not edit)
    forceload: misc/md_trans
    forceload: misc/md_raid
    forceload: misc/md_mirror
    forceload: misc/md_hotspares
    forceload: misc/md_stripe
    forceload: drv/pcipsy
    forceload: drv/glm
    forceload: drv/sd
    rootdev:/pseudo/md@0:0,10,blk
    * End MDD root info (do not edit)
  11. Ändern Sie die Datei /temp-mountpoint/etc/vfstab, um den Root-Eintrag von einem Solstice DiskSuite-Metagerät oder einem Solaris Volume Manager-Datenträger in einen entsprechenden normalen Bereich für jedes Dateisystem auf der Root-Platte zu ändern, die sich auf dem Metagerät oder Datenträger befindet.


    Example: 
    Change from—
    /dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -
    
    Change to—
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /      ufs   1     no       -
  12. Hängen Sie das temporäre Dateisystem aus, und prüfen Sie das im raw-Modus betriebene Plattengerät.


    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    
  13. Starten Sie den Knoten im Mehrfachbenutzermodus.


    # reboot
    
  14. Ersetzen Sie die Platten-ID mit dem scdidadm-Befehl.


    # scdidadm -R rootdisk
    
  15. Verwenden Sie den metadb-Befehl zur erneuten Erstellung der Zustands-Datenbankreplikate.


    # metadb -c copies -af raw-disk-device
    
    -c copies

    Gibt die Anzahl der zu erstellenden Replikate an.

    -af raw-disk-device

    Erstellt die ursprünglichen Zustands-Datenbankreplikate auf dem genannten im raw-Modus betriebenen Plattengerät.

  16. Verwenden Sie von einem anderen als dem wiederhergestellten Knoten den metaset-Befehl, um allen Plattensätzen den wiederhergestellten Knoten hinzuzufügen.


    phys-schost-2# metaset -s setname -a -h nodelist
    
    -a

    Fügt (erstellt) den Metasatz hinzu.

    Richten Sie metadevice oder volume/mirror für root ( /) entsprechend der Solstice DiskSuite-Dokumentation ein.

    Der Knoten wird im Cluster-Modus neu gebootet. Der Cluster ist betriebsbereit.


Beispiel 9–7 Wiederherstellen eines Root-Dateisystems (/), das sich auf einem Solstice DiskSuite Metadevice oder Solaris Volume Manager-Datenträger befand

Das nachstehende Beispiel zeigt das Root-Dateisystem (/), das vom Plattengerät /dev/rmt/0 auf dem Knoten phys-schost-1 wiederhergestellt wurde. Der metaset-Befehl wird von einem anderen Knoten im Cluster (phys-schost-2) ausgeführt. Dabei wird der Knoten phys-schost-1 zuerst vom Metagerät schost-1 entfernt und diesem später wieder hinzugefügt. Alle anderen Befehle werden von phys-schost-1 ausgeführt. Auf /dev/rdsk/c0t0d0s0 wird ein neuer Boot-Block erstellt, und auf /dev/rdsk/c0t0d0s4 werden drei Zustands-Datenbankreplikate für Zustandsdaten wieder erstellt.


[Become superuser or assume an equivalent role on a cluster node with access to the metaset, 
other than the node to be restored.]
[Remove the node from the metaset:]
phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1
[Replace the failed disk and boot the node:]

Booten des Knotens mit der Solaris-CD-Rom:


[Use format
 and newfs to recreate partitions and file systems
.]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0

[Remove the lines in /
temp-mountpoint/etc/system file for MDD root information:
]
* Begin MDD root info (do not edit)
forceload: misc/md_trans
forceload: misc/md_raid
forceload: misc/md_mirror
forceload: misc/md_hotspares
forceload: misc/md_stripe
forceload: drv/pcipsy
forceload: drv/glm
forceload: drv/sd
rootdev:/pseudo/md@0:0,10,blk
* End MDD root info (do not edit)
[Edit the /temp-mountpoint/etc/vfstab
file]
Example: 
Change from—
/dev/md/dsk/d10   /dev/md/rdsk/d10    /      ufs   1     no       -

Change to—
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  /usr   ufs   1     no       -
[Unmount the temporary file system and check the raw disk device:
]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Reboot:]
# reboot
[Replace the disk ID:]
# scdidadm -R /dev/rdsk/c0t0d0
[Recreate state database replicas:]
# metadb -c 3 -af /dev/rdsk/c0t0d0s4
[Add the node back to the metaset:]
phys-schost-2# metaset -s schost-1 -a -h phys-schost-1

ProcedureSPARC: So stellen Sie ein nicht eingekapseltens Root-Dateisystem (/) wieder her (VERITAS Volume Manager)

Verwenden Sie dieses Verfahren zur Wiederherstellung eines nicht eingekapselten Root-Dateisystems (/) auf einem Knoten. Der wiederherzustellende Knoten sollte nicht gebootet werden. Stellen Sie sicher, dass der Cluster vor der Ausführung des Wiederherstellungsverfahrens problemlos läuft.


Hinweis –

Sie müssen die neue Platte mit demselben Format wie die fehlerhafte Platte partitionieren; identifizieren Sie deshalb das Partitionsschema, bevor Sie mit diesem Verfahren beginnen, und erstellen Sie die benötigten Dateisysteme.


Schritte
  1. Ersetzen Sie die fehlerhafte Platte auf dem Knoten, dessen Root-Dateisystem wiederhergestellt wird.

    Informationen zum Verfahren zum Ersetzen von Platten finden Sie in der Dokumentation zu Ihrem Server.

  2. Booten Sie den Knoten, der wiederhergestellt wird.

    • Wenn Sie die Solaris-CD-Rom verwenden, geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:


      ok boot cdrom -s
      
    • Wenn Sie einen Solaris JumpStartTM-Server verwenden, geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:


      ok boot net -s
      
  3. Erstellen Sie alle Partitionen und lagern Sie die Root-Platte mit dem format-Befehl aus.

    Erstellen Sie das ursprüngliche Partitionsschema der fehlerhaften Platte neu.

  4. Erstellen Sie das Root-Dateisystem (/) und die restlichen ggf. benötigten Dateisysteme mit dem newfs-Befehl.

    Erstellen Sie die ursprünglich auf der fehlerhaften Platte vorhandenen Dateisysteme.


    Hinweis –

    Vergessen Sie nicht, das /global/.devices/node@nodeid-Dateisystem zu erstellen.


  5. Hängen Sie das Root-Dateisystem (/) in einem temporären Einhängepunkt ein.


    # mount device temp-mountpoint
    
  6. Stellen Sie das Root-Dateisystem (/) aus der Sicherungskopie wieder her, hängen Sie das Dateisystem aus, und prüfen Sie es.


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    

    Das Dateisystem ist nun wiederhergestellt.

  7. Installieren Sie einen neuen Boot-Block auf der neuen Platte.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    
  8. Starten Sie den Knoten im Mehrfachbenutzermodus.


    # reboot
    
  9. Aktualisieren Sie die Platten-ID mit dem scdidadm-Befehl.


    # scdidadm -R /dev/rdsk/disk-device
    
  10. Drücken Sie Steuerung-D, um im Mehrbenutzermodus fortzufahren.

    Der Knoten wird im Cluster-Modus neu gebootet. Der Cluster ist betriebsbereit.


Beispiel 9–8 SPARC: Wiederherstellen eines nicht eingekapselten Root-Dateisystems (/) (VERITAS Volume Manager)

Das nachstehende Beispiel zeigt ein nicht eingekapseltes Root-Dateisystem (/), das vom Plattengerät /dev/rmt/0 auf dem Knoten phys-schost-1 wiederhergestellt wurde.


[Replace the failed disk and boot the node:]

Booten Sie den Knoten mit der Solaris-CD-Rom. Geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:


ok boot cdrom -s
...
[Use format and 
newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0

[Reboot:]
# reboot
[Update the disk ID:]
# scdidadm -R /dev/rdsk/c0t0d0

ProcedureSPARC: So stellen Sie ein eingekapseltes Root-Dateisystem (/) wieder her (VERITAS Volume Manager)

Mit diesem Verfahren stellen Sie ein eingekapseltes Root-Dateisystem (/) auf einem Knoten wieder her. Der wiederherzustellende Knoten sollte nicht gebootet werden. Stellen Sie sicher, dass der Cluster vor der Ausführung des Wiederherstellungsverfahrens problemlos läuft.


Hinweis –

Sie müssen die neue Platte mit demselben Format wie die fehlerhafte Platte partitionieren; identifizieren Sie deshalb das Partitionsschema, bevor Sie mit diesem Verfahren beginnen, und erstellen Sie die benötigten Dateisysteme.


Schritte
  1. Ersetzen Sie die fehlerhafte Platte auf dem Knoten, dessen Root-Dateisystem wiederhergestellt wird.

    Informationen zum Verfahren zum Ersetzen von Platten finden Sie in der Dokumentation zu Ihrem Server.

  2. Booten Sie den Knoten, der wiederhergestellt wird.

    • Wenn Sie die Solaris-CD-Rom verwenden, geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:


      ok boot cdrom -s
      
    • Wenn Sie einen Solaris JumpStartTM-Server verwenden, geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:


      ok boot net -s
      
  3. Erstellen Sie alle Partitionen und lagern Sie die Root-Platte mit dem format-Befehl aus.

    Erstellen Sie das ursprüngliche Partitionsschema der fehlerhaften Platte neu.

  4. Erstellen Sie das Root-Dateisystem (/) und die restlichen ggf. benötigten Dateisysteme mit dem newfs-Befehl.

    Erstellen Sie die ursprünglich auf der fehlerhaften Platte vorhandenen Dateisysteme.


    Hinweis –

    Vergessen Sie nicht, das /global/.devices/node@nodeid-Dateisystem zu erstellen.


  5. Hängen Sie das Root-Dateisystem (/) in einem temporären Einhängepunkt ein.


    # mount device temp-mountpoint
    
  6. Stellen Sie das Root-Dateisystem (/) aus der Sicherungskopie wieder her.


    # cd temp-mountpoint
    # ufsrestore rvf dump-device
    # rm restoresymtable
    
  7. Erstellen Sie eine leere install-db-Datei.

    Diese versetzt den Knoten beim nächsten Neubooten in VxVM-Installationsmodus.


    # touch \
    /temp-mountpoint/etc/vx/reconfig.d/state.d/install-db
    
  8. Entfernen Sie die folgenden Einträge aus der Datei / temp-mountpoint/etc/system file.


    * rootdev:/pseudo/vxio@0:0
    * set vxio:vol_rootdev_is_volume=1
  9. Bearbeiten Sie die Datei /temp-mountpoint /etc/vfstab und ersetzen Sie alle VxVM-Einhängepunkte durch Standard-Plattengeräte für die Root-Platte, zum Beispiel /dev/dsk/c0t0d0s0.


    Example: 
    Change from—
    /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol /      ufs   1     no -
    
    Change to—
    /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
  10. Hängen Sie das temporäre Dateisystem aus, und prüfen Sie das Dateisystem.


    # cd /
    # umount temp-mountpoint
    # fsck raw-disk-device
    
  11. Installieren Sie den Boot-Block auf der neuen Platte.


    # /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk raw-disk-device
    
  12. Starten Sie den Knoten im Mehrfachbenutzermodus.


    # reboot
    
  13. Aktualisieren Sie die Platten-ID mit scdidadm(1M).


    # scdidadm -R /dev/rdsk/c0t0d0
    
  14. Führen Sie vxinstall aus, um die Platte zu einzukapseln und neu zu booten.


     # vxinstall
    
  15. Wenn es bei der Unternummer zu einem Konflikt mit einem anderen System kommt, hängen Sie die globalen Geräte aus, und geben Sie der Plattengruppe eine neue Unternummer.

    • Hängen Sie das Dateisystem globaler Geräte auf dem Cluster-Knoten aus.


       # umount /global/.devices/node@nodeid
      
    • Geben Sie der Plattengruppe rootdg auf dem Cluster-Knoten eine neue Unternummer.


      # vxdg reminor rootdg 100
      
  16. Fahren Sie den Knoten herunter, und booten Sie ihn im Cluster-Modus neu.


    # shutdown -g0 -i6 -y
    

Beispiel 9–9 SPARC: Wiederherstellen eines nicht eingekapselten Root-Dateisystems (/) (VERITAS Volume Manager)

Das nachstehende Beispiel zeigt ein eingekapseltes Root-Dateisystem (/), das vom Plattengerät /dev/rmt/0 auf dem Knoten phys-schost-1 wiederhergestellt wurde.


[Replace the failed disk and boot the node:]

Booten Sie den Knoten mit der Solaris-CD-Rom. Geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:


ok boot cdrom -s
...
[Use format and 
newfs to create partitions and file systems]
[Mount the root file system on a temporary mount point:]
# mount /dev/dsk/c0t0d0s0 /a
[Restore the root file system:]
# cd /a
# ufsrestore rvf /dev/rmt/0
# rm restoresymtable
[Create an empty install-db file:]
# touch /a/etc/vx/reconfig.d/state.d/install-db
[Edit /etc/system on the temporary file system and 
remove or comment out the following entries:]
	# rootdev:/pseudo/vxio@0:0
	# set vxio:vol_rootdev_is_volume=1
[Edit /etc/vfstab on the temporary file system:]
Example: 
Change from—
/dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no-

Change to—
/dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0  / ufs   1     no       -
[Unmount the temporary file system, then check the file system:]
# cd /
# umount /a
# fsck /dev/rdsk/c0t0d0s0
[Install a new boot block:]
# /usr/sbin/installboot /usr/platform/`uname \
-i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0

[Reboot:]
# reboot
[Update the disk ID:]
# scdidadm -R /dev/rdsk/c0t0d0
[Run vxinstall:]
# vxinstall
Choose to encapsulate the root disk.
[If there is a conflict in minor number, reminor the rootdg disk group
:]
# umount /global/.devices/node@nodeid
# vxdg reminor rootdg 100
# shutdown -g0 -i6 -y

Siehe auch

Anweisungen zum Spiegeln der eingekapselten Root-Platte finden Sie im Sun Cluster Handbuch Softwareinstallation für Solaris OS.