Die folgenden schrittweisen Anweisungen sind in diesem Kapitel beschrieben.
So bestimmen Sie die Anzahl der erforderlichen Bänder für eine komplette Sicherung
So führen Sie Online-Sicherungen für Spiegel durch (Solstice DiskSuite/Solaris Volume Manager)
SPARC: So führen Sie Online-Sicherungen für Datenträger durch (VERITAS Volume Manager)
So stellen Sie einzelne Dateien interaktiv wieder her (Solstice DiskSuite/Solaris Volume Manager)
So stellen Sie das Root-Dateisystem (/) wieder her (Solstice DiskSuite/Solaris Volume Manager)
SPARC: So stellen Sie ein eingekapseltes Root-Dateisystem (/) wieder her (VERITAS Volume Manager)
Schritt |
Anweisungen siehe… |
---|---|
Suchen der Namen der zu sichernden Dateisysteme | |
Berechnen der erforderlichen Anzahl von Bändern, die zum Speichern einer kompletten Sicherung erforderlich sind |
So bestimmen Sie die Anzahl der erforderlichen Bänder für eine komplette Sicherung |
Sichern des Root-Dateisystems | |
Durchführen einer Online-Sicherung für gespiegelte oder vernetzte Dateisysteme |
So führen Sie Online-Sicherungen für Spiegel durch (Solstice DiskSuite/Solaris Volume Manager) |
SPARC: So führen Sie Online-Sicherungen für Datenträger durch (VERITAS Volume Manager) |
Verwenden Sie dieses Verfahren, um die Namen der zu sichernden Dateisysteme zu bestimmen.
Zeigen Sie den Inhalt der /etc/vfstab-Datei an.
Für die Ausführung dieses Befehls müssen Sie nicht als Superbenutzer angemeldet sein.
% more /etc/vfstab |
Suchen Sie in der Spalte mit den Einhängepunkten den Namen des Dateisystems, das Sie sichern möchten.
Verwenden Sie diesen Namen beim Sichern des Dateisystems.
% more /etc/vfstab |
Im folgenden Beispiel werden die Namen der verfügbaren, in der /etc/vfstab-Datei aufgelisteten Dateisysteme angezeigt.
% more /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # #/dev/dsk/c1d0s2 /dev/rdsk/c1d0s2 /usr ufs 1 yes - f - /dev/fd fd - no - /proc - /proc proc - no - /dev/dsk/c1t6d0s1 - - swap - no - /dev/dsk/c1t6d0s0 /dev/rdsk/c1t6d0s0 / ufs 1 no - /dev/dsk/c1t6d0s3 /dev/rdsk/c1t6d0s3 /cache ufs 2 yes - swap - /tmp tmpfs - yes - |
Verwenden Sie dieses Verfahren, um die Anzahl der Bänder zu berechnen, die Sie für die Sicherung eines Dateisystems benötigen.
Melden Sie sich bei dem Cluster-Knoten, den Sie sichern möchten, als Superbenutzer an.
Schätzen Sie die Größe der Sicherungskopie in Bytes.
# ufsdump S Dateisystem |
Zeigt die geschätzte Anzahl der Bytes an, die zum Durchführen der Sicherung erforderlich sind.
Gibt den Namen des zu sichernden Dateisystems an.
Teilen Sie die geschätzte Größe durch die Kapazität der Bänder um festzustellen, wie viele Bänder Sie benötigen.
Im nachfolgenden Beispiel passt der Umfang des Dateisystems mit 905,881,620 Bytes problemlos auf ein Band mit 4 GB (905,881,620 ÷ 4,000,000,000).
# ufsdump S /global/phys-schost-1 905881620 |
Mit diesem Verfahren sichern Sie das Root-Dateisystem (/) eines Cluster-Knotens. Stellen Sie sich, dass der Cluster problemlos läuft, bevor Sie das Sicherungsverfahren durchführen.
Melden Sie sich bei dem Cluster-Knoten, den Sie sichern möchten, als Superbenutzer an.
Schalten Sie alle laufenden Datendienste vom zu sichernden Knoten auf einen anderen Knoten im Cluster um.
# scswitch -z -D Plattengerätegruppe[,...] -h Knoten[,...] |
Führt die Umschaltung durch.
Name der umzuschaltenden Plattengerätegruppe.
Name des Cluster-Knotens, auf den die Plattengerätegruppe umgeschaltet wird. Dieser Knoten wird zum neuen Primärknoten.
Fahren Sie den Knoten herunter.
# shutdown -g0 -y -i0 |
Booten Sie den Cluster im Nicht-Cluster-Modus neu.
SPARC:
ok boot -x |
x86:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
Sichern Sie das Root-Dateisystem (/).
Verwenden Sie folgenden Befehl, wenn die Root-Platte nicht eingekapselt ist.
# ufsdump 0ucf Abbildgerät / |
Verwenden Sie folgenden Befehl, wenn die Root-Platte eingekapselt ist.
# ufsdump 0ucf Abbildgerät /dev/vx/rdsk/rootvol |
Weitere Informationen finden Sie in der Online-Dokumentation unter ufsdump(1M).
Booten Sie den Knoten im Cluster-Modus neu.
# init 6 |
Im folgenden Beispiel wird das Root-Dateisystem (/) auf dem Bandgerät /dev/rmt/0 gesichert.
# ufsdump 0ucf /dev/rmt/0 / DUMP: Writing 63 Kilobyte records DUMP: Date of this level 0 dump: Tue Apr 18 18:06:15 2000 DUMP: Date of last level 0 dump: the epoch DUMP: Dumping /dev/rdsk/c0t0d0s0 (phys-schost-1:/) to /dev/rmt/0 DUMP: Mapping (Pass I) [regular files] DUMP: Mapping (Pass II) [directories] DUMP: Estimated 859086 blocks (419.48MB). DUMP: Dumping (Pass III) [directories] DUMP: Dumping (Pass IV) [regular files] DUMP: 859066 blocks (419.47MB) on 1 volume at 2495 KB/sec DUMP: DUMP IS DONE DUMP: Level 0 dump on Tue Apr 18 18:06:15 2000 |
Ein gespiegeltes Solstice DiskSuite-Metagerät oder ein Solaris Volume Manager-Datenträger kann gesichert werden, ohne dass es/er ausgehängt wird bzw. ohne dass der gesamte Spiegel offline gesetzt wird. Einer der Unterspiegel muss vorübergehend offline genommen werden, wodurch die Spiegelung ausfällt; er kann jedoch wieder online gebracht und resynchronisiert werden, sobald die Sicherung abgeschlossen ist, ohne das System zu unterbrechen oder dem Benutzer den Datenzugriff zu verweigern. Bei der Verwendung von Spiegeln zur Online-Sicherung erhalten Sie einen “Schnappschuss” eines aktiven Dateisystems.
Möglicherweise kommt es zu Problemen, wenn das Programm unmittelbar vor der Ausführung des lockfs-Befehls Daten auf den Datenträger schreibt. Sie verhindern dieses Problem, indem Sie vorübergehend alle auf diesem Knoten laufenden Dienste stoppen. Stellen Sie außerdem sicher, dass der Cluster problemlos läuft, bevor Sie das Sicherungsverfahren durchführen.
Melden Sie sich bei dem Cluster-Knoten, den Sie sichern möchten, als Superbenutzer an.
Verwenden Sie den Befehl metaset(1M), um festzulegen, welcher Knoten die Eigentümerschaft über den gesicherten Datenträger erhält.
# metaset -s Satzname |
Gibt den Plattensatznamen an.
Mit dem lockfs(1M)-Befehl und der -w-Option sperren Sie das Dateisystem für den Schreibzugriff.
# lockfs -w Einhängepunkt |
Sie müssen das Dateisystem nur sperren, wenn der Spiegel ein UFS-Dateisystem enthält. Wenn beispielsweise das Solstice DiskSuite-Metagerät oder der Solaris Volume Manager-Datenträger als ein im raw-Modus betriebenes Gerät für die Datenbankverwaltungs-Software oder eine andere bestimmte Anwendung eingerichtet ist, ist die Verwendung des Befehls lockfs nicht erforderlich. Sie können jedoch das entsprechende Dienstprogramm Ihres Lieferanten ausführen, um die Pufferspeicher zu leeren und den Zugriff zu sperren.
Mit dem metastat(1M)-Befehl bestimmen Sie die Namen der Unterspiegel.
# metastat -s Satzname -p |
Zeigt den Status in einem der md.tab-Datei ähnlichen Format an.
Mit dem metadetach(1M)-Befehl nehmen Sie einen Unterspiegel offline.
# metadetach -s Satzname Spiegel Unterspiegel |
Der Lesezugriff erfolgt weiter über die verbleibenden Unterspiegel. Der offline genommene Unterspiegel ist jedoch nicht mehr synchronisiert, sobald der erste Schreibzugriff auf den Spiegel erfolgt. Diese Inkonsistenz wird korrigiert, sobald der offline genommene Unterspiegel wieder online gebracht wird. Sie müssen fsck nicht ausführen.
Entsperren Sie die Dateisysteme und lassen Sie die Weiterführung der Schreibzugriffe zu. Verwenden Sie dazu den lockfs-Befehl mit der Option -u.
# lockfs -u Einhängepunkt |
Führen Sie eine Dateisystemprüfung durch.
# fsck /dev/md/diskset/rdsk/Unterspiegel |
Sichern Sie die den offline genommenen Unterspiegel auf einem Band oder einem anderen Speichermedium.
Verwenden Sie den ufsdump(1M)-Befehl oder ein Sicherungsprogramm, das Sie normalerweise verwenden.
# ufsdump 0ucf Abbildgerät Unterspiegel |
Verwenden Sie den Namen des im raw-Modus betriebenen Geräts (/rdsk) für den Unterspiegel anstelle des Block-Gerätenamens (/dsk).
Mit dem metattach(1M)-Befehl bringen Sie das Metagerät wieder online.
# metattach -s Satzname Spiegel Unterspiegel |
Wenn das Metagerät oder der Datenträger online gebracht wird, erfolgt automatisch eine Resynchronisierung mit dem Spiegel.
Mit dem metastat-Befehl überprüfen Sie, ob der Unterspiegel resynchronisiert wird.
# metastat -s Satzname Spiegel |
Im nachstehenden Beispiel ist der Cluster-Knoten phys-schost-1 der Besitzer des Metasatzes schost-1; aus diesem Grund wird das Sicherungsverfahren von phys-schost-1 aus durchgeführt. Der Spiegel /dev/md/schost-1/dsk/d0 besteht aus den Unterspiegeln d10, d20 und d30.
[Bestimmen Sie den Besitzer des Metasatzes:] # metaset -s schost-1 Set name = schost-1, Set number = 1 Host Owner phys-schost-1 Yes ... [Sperren Sie das Dateisystem gegen Schreibzugriffe:] # lockfs -w /global/schost-1 [Listen Sie die Unterspiegel auf:] # metastat -s schost-1 -p schost-1/d0 -m schost-1/d10 schost-1/d20 schost-1/d30 1 schost-1/d10 1 1 d4s0 schost-1/d20 1 1 d6s0 schost-1/d30 1 1 d8s0 [Nehmen Sie einen Unterspiegel offline:] # metadetach -s schost-1 d0 d30 [Entsperren Sie das Dateisystem:] # lockfs -u / [Prüfen Sie das Dateisystem:] # fsck /dev/md/schost-1/rdsk/d30 [Kopieren Sie den Unterspiegel auf das Sicherungsgerät:] # ufsdump 0ucf /dev/rmt/0 /dev/md/schost-1/rdsk/d30 DUMP: Writing 63 Kilobyte records DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000 DUMP: Date of last level 0 dump: the epoch DUMP: Dumping /dev/md/schost-1/rdsk/d30 to /dev/rdsk/c1t9d0s0. ... DUMP: DUMP IS DONE [Bringen Sie den Unterspiegel wieder online:] # metattach -s schost-1 d0 d30 schost-1/d0: submirror schost-1/d30 is attached [Resynchronisieren Sie den Unterspiegel:] # metastat -s schost-1 d0 schost-1/d0: Mirror Submirror 0: schost-0/d10 State: Okay Submirror 1: schost-0/d20 State: Okay Submirror 2: schost-0/d30 State: Resyncing Resync in progress: 42% done Pass: 1 Read option: roundrobin (default) ... |
VERITAS Volume Manager identifiziert einen gespiegelten Datenträger als Plex. Ein Plex kann gesichert werden, ohne ihn auszuhängen oder den ganzen Datenträger offline zu nehmen. Das geschieht durch das Erstellen einer Schnappschusskopie des Datenträgers und einer Sicherung dieses temporären Datenträgers, ohne das System zu stoppen oder den Benutzern den Datenzugriff zu verweigern.
Stellen Sie sich, dass der Cluster problemlos läuft, bevor Sie das Sicherungsverfahren durchführen.
Melden Sie sich zuerst bei einem beliebigen Knoten im Cluster an und dann beim aktuellen Primärknoten der Plattengruppe im Cluster als Superbenutzer.
Listen Sie die Plattengruppeninformationen auf.
# vxprint -g Plattengruppe |
Führen Sie den scstat(1M)-Befehl aus, um festzustellen, auf welchem Knoten die Plattengruppe aktuell importiert ist, das heißt, welcher Knoten der Primärknoten der Plattengruppe ist.
# scstat -D |
Zeigt den Status aller Plattengerätegruppen an.
Erstellen Sie einen Schnappschuss des Datenträgers mit dem vxassist-Befehl.
# vxassist -g Plattengruppe snapstart Datenträger |
Das Erstellen eines Schnappschusses kann je nach Umfang Ihres Datenträgers längere Zeit in Anspruch nehmen.
Überprüfen Sie, ob der neue Datenträger erstellt wurde.
# vxprint -g Plattengruppe |
Sobald der Schnappschuss abgeschlossen ist, wird im Feld State der Status Snapdone für die ausgewählte Plattengruppe angezeigt.
Stoppen Sie alle auf das Dateisystem zugreifenden Datendienste.
# scswitch -z -g resource-group[,...] -h ““ |
Mit dem Stoppen aller Datendienste stellen Sie sicher, dass das Daten-Dateisystem richtig gesichert wird. Wenn keine Datendienste ausgeführt werden, müssen Sie Schritt 6 und Schritt 8 nicht ausführen.
Erstellen Sie einen Sicherungsdatenträger mit dem Namen bkup-vol, und hängen Sie den Schnappschuss mit dem vxassist-Befehl an.
# vxassist -g Plattengruppe snapshot Datenträger bkup-vol |
Starten Sie alle in Schritt 6 gestoppten Datendienste mit dem scswitch(1M)-Befehl neu.
# scswitch -z -g Ressourcengruppe[,...] -h Knoten[,...] |
Überprüfen Sie mit dem vxprint-Befehl, ob der Datenträger jetzt an den neuen Datenträger bkup-vol angehängt ist.
# vxprint -g Plattengruppe |
Registrieren Sie die Änderungen der Plattengruppenkonfiguration.
# scconf -c -D name=Plattengruppe,sync |
Überprüfen Sie den Sicherungsdatenträger mit dem fsck-Befehl.
# fsck -y /dev/vx/rdsk/Plattengruppe/Sicherungsdatenträger |
Erstellen Sie eine Sicherungskopie des Datenträgers bkup-vol auf Band oder auf ein anderes Speichermedium.
Verwenden Sie den Befehl ufsdump(1M) oder ein Sicherungsprogramm, das Sie normalerweise verwenden.
# ufsdump 0ucf Abbildgerät /dev/vx/dsk/Plattengruppe/Sicherungsdatenträger |
Entfernen Sie den temporären Datenträger mit vxedit.
# vxedit -rf rm bkup-vol |
Registrieren Sie die Änderungen der Plattengruppenkonfiguration mit dem scconf(1M)-Befehl.
# scconf -c -D name=Plattengruppe,sync |
Im nachstehenden Beispiel ist der Cluster-Knoten phys-schost-2 der Primäreigentümer der Metasatz-Plattengruppe schost-1; aus diesem Grund wird das Sicherungsverfahren von phys-schost-2 aus durchgeführt. Der Datenträger /vo101 wird kopiert und dann an den neuen Datenträger bkup-vol angehängt.
[Melden Sie sich beim Primärknoten als Superbenutzer an.] [Identifzieren Sie den aktuellen Primärknoten für die Plattengruppe:] # scstat -D -- Plattengruppenserver -- Gerätegruppe Primärknoten Sekundarknoten ------------ ------- --------- Plattengruppenserver: rmt/1 - - Plattengruppenserver: schost-1 phys-schost-2 phys-schost-1 -- Plattengruppenstatus -- Gerätegruppe Status ------------ ------ Gerätegruppenstatus: rmt/1 Offline Gerätegruppenstatus: schost-1 Online [Listen Sie die Plattengerätegruppeninformationen auf:] # vxprint -g schost-1 TY NAME ASSOC KSTATE LENGTH PLOFFS STATE TUTIL0 PUTIL0 dg schost-1 schost-1 - - - - - - dm schost-101 c1t1d0s2 - 17678493 - - - - dm schost-102 c1t2d0s2 - 17678493 - - - - dm schost-103 c2t1d0s2 - 8378640 - - - - dm schost-104 c2t2d0s2 - 17678493 - - - - dm schost-105 c1t3d0s2 - 17678493 - - - - dm schost-106 c2t3d0s2 - 17678493 - - - - v vol01 gen ENABLED 204800 - ACTIVE - - pl vol01-01 vol01 ENABLED 208331 - ACTIVE - - sd schost-101-01 vol01-01 ENABLED 104139 0 - - - sd schost-102-01 vol01-01 ENABLED 104139 0 - - - pl vol01-02 vol01 ENABLED 208331 - ACTIVE - - sd schost-103-01 vol01-02 ENABLED 103680 0 - - - sd schost-104-01 vol01-02 ENABLED 104139 0 - - - pl vol01-03 vol01 ENABLED LOGONLY - ACTIVE - - sd schost-103-02 vol01-03 ENABLED 5 LOG - - - [Starten Sie den Snapshot-Vorgang:] # vxassist -g schost-1 snapstart vol01 [Überprüfen Sie, ob der neue Datenträger erstellt wurde:] # vxprint -g schost-1 TY NAME ASSOC KSTATE LENGTH PLOFFS STATE TUTIL0 PUTIL0 dg schost-1 schost-1 - - - - - - dm schost-101 c1t1d0s2 - 17678493 - - - - dm schost-102 c1t2d0s2 - 17678493 - - - - dm schost-103 c2t1d0s2 - 8378640 - - - - dm schost-104 c2t2d0s2 - 17678493 - - - - dm schost-105 c1t3d0s2 - 17678493 - - - - dm schost-106 c2t3d0s2 - 17678493 - - - - v vol01 gen ENABLED 204800 - ACTIVE - - pl vol01-01 vol01 ENABLED 208331 - ACTIVE - - sd schost-101-01 vol01-01 ENABLED 104139 0 - - - sd schost-102-01 vol01-01 ENABLED 104139 0 - - - pl vol01-02 vol01 ENABLED 208331 - ACTIVE - - sd schost-103-01 vol01-02 ENABLED 103680 0 - - - sd schost-104-01 vol01-02 ENABLED 104139 0 - - - pl vol01-03 vol01 ENABLED LOGONLY - ACTIVE - - sd schost-103-02 vol01-03 ENABLED 5 LOG - - - pl vol01-04 vol01 ENABLED 208331 - SNAPDONE - - sd schost-105-01 vol01-04 ENABLED 104139 0 - - - sd schost-106-01 vol01-04 ENABLED 104139 0 - - - [Stoppen Sie ggf. die Datendienste:] # scswitch -z -g nfs-rg -h ““ [Erstellen Sie eine Kopie des Datenträgers:] # vxassist -g schost-1 snapshot vol01 bkup-vol [Starten Sie ggf. die Datendienste:] # scswitch -z -g nfs-rg -h phys-schost-1 [Überprüfen Sie, ob bkup-vol erstellt wurde:] # vxprint -g schost-1 TY NAME ASSOC KSTATE LENGTH PLOFFS STATE TUTIL0 PUTIL0 dg schost-1 schost-1 - - - - - - dm schost-101 c1t1d0s2 - 17678493 - - - - ... v bkup-vol gen ENABLED 204800 - ACTIVE - - pl bkup-vol-01 bkup-vol ENABLED 208331 - ACTIVE - - sd schost-105-01 bkup-vol-01 ENABLED 104139 0 - - - sd schost-106-01 bkup-vol-01 ENABLED 104139 0 - - - v vol01 gen ENABLED 204800 - ACTIVE - - pl vol01-01 vol01 ENABLED 208331 - ACTIVE - - sd schost-101-01 vol01-01 ENABLED 104139 0 - - - sd schost-102-01 vol01-01 ENABLED 104139 0 - - - pl vol01-02 vol01 ENABLED 208331 - ACTIVE - - sd schost-103-01 vol01-02 ENABLED 103680 0 - - - sd schost-104-01 vol01-02 ENABLED 104139 0 - - - pl vol01-03 vol01 ENABLED LOGONLY - ACTIVE - - sd schost-103-02 vol01-03 ENABLED 5 LOG - - - [Synchronisieren Sie die Plattengruppe mit dem Cluster Framework:] # scconf -c -D name=schost-1,sync [Überprüfen Sie die Dateisysteme:] # fsck -y /dev/vx/rdsk/schost-1/bkup-vol [Kopieren Sie bkup-vol auf das Sicherungsgerät:] # ufsdump 0ucf /dev/rmt/0 /dev/vx/rdsk/schost-1/bkup-vol DUMP: Writing 63 Kilobyte records DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000 DUMP: Date of last level 0 dump: the epoch DUMP: Dumping /dev/vx/dsk/schost-2/bkup-vol to /dev/rmt/0. ... DUMP: DUMP IS DONE [Entfernen Sie den bkup-Datenträger:] # vxedit -rf rm bkup-vol [Synchronisieren Sie die Plattengruppe:] # scconf -c -D name=schost-1,sync |
Der ufsrestore(1M)-Befehl kopiert Dateien aus Sicherungskopien, die mit dem ufsdump (1M)-Befehl erstellt wurden, auf die zum aktuellen Arbeitsverzeichnis gehörende Platte. Mit ufsrestore können Sie eine komplette Dateisystemhierarchie von einem Speicherabbild auf Ebene 0 bis zu den darauf folgenden inkrementellen Speicherabbildern neu laden oder eine oder mehrere einzelne Datei(en) von jedem beliebigen Abbildband wiederherstellen. Wenn Sie ufsrestore als Superbenutzer ausführen, werden die Dateien mit dem ursprünglichen Besitzer, dem ursprünglichen Zeitpunkt der letzten Änderung und dem ursprünglichen Modus (Berechtigungen) wiederhergestellt.
Bevor Sie mit der Wiederherstellung von Dateien oder Dateisystemen beginnen, benötigen Sie folgende Informationen:
Die benötigten Bänder,
Den Namen des im raw-Modus betriebenen Geräts, auf dem das Dateisystem wiederhergestellt werden soll,
Die Art des verwendeten Bandlaufwerks,
Den Gerätenamen (lokal oder remote) für das Bandlaufwerk,
Das Partitionsschema der fehlerhaften Platten, weil die Partitionen und Dateisysteme auf der Ersatzplatte an genau demselben Speicherort dupliziert werden müssen.
Schritt |
Anweisungen siehe… |
---|---|
Interaktives Wiederherstellen von Dateien anhand der Solaris-Wiederherstellungsverfahren für Solstice DiskSuite/Solaris Volume Manager |
So stellen Sie einzelne Dateien interaktiv wieder her (Solstice DiskSuite/Solaris Volume Manager) |
Wiederherstellen des Root-Dateisystems (/) für Solstice DiskSuite/Solaris Volume Manager |
So stellen Sie das Root-Dateisystem (/) wieder her (Solstice DiskSuite/Solaris Volume Manager) |
| |
Wiederherstellen eines nicht eingekapselten Root-Dateisystems (/) für VERITAS Volume Manager | |
Wiederherstellen eines eingekapselten Root-Dateisystems (/) für VERITAS Volume Manager |
SPARC: So stellen Sie ein eingekapseltes Root-Dateisystem (/) wieder her (VERITAS Volume Manager) |
Verwenden Sie dieses Verfahren zur Wiederherstellung einer oder mehrerer einzelner Datei(en). Stellen Sie sicher, dass der Cluster vor der Ausführung des Wiederherstellungsverfahrens problemlos läuft.
Melden Sie sich bei dem wiederherzustellenden Knoten als Superbenutzer an.
Stoppen Sie alle Datendienste, die auf die wiederherzustellenden Dateien zugreifen.
# scswitch -z -g Ressourcengruppe[,...] -h ““ |
Stellen Sie die Dateien mit dem ufsrestore-Befehl wieder her.
Verwenden Sie dieses Verfahren, um die Root-Dateisysteme (/) auf einer neuen Platte wiederherzustellen, zum Beispiel nach dem Ersetzen einer fehlerhaften Root-Platte. Der wiederherzustellende Knoten sollte nicht gebootet werden. Stellen Sie sicher, dass der Cluster vor der Ausführung des Wiederherstellungsverfahrens problemlos läuft.
Sie müssen die neue Platte mit demselben Format wie die fehlerhafte Platte partitionieren; identifizieren Sie deshalb das Partitionsschema, bevor Sie mit diesem Verfahren beginnen, und erstellen Sie die benötigten Dateisysteme.
Melden Sie sich bei dem Cluster-Knoten als Superbenutzer an, der Zugriff auf den Metasatz hat und nicht der wiederherzustellende Knoten ist.
Entfernen Sie den Hostnamen des wiederherzustellenden Knotens aus allen Metasätzen.
Führen Sie diesen Befehl von einem anderen als dem zu entfernenden Knoten im Metasatz aus.
# metaset -s Satzname -f -d -h Knotenliste |
Gibt den Plattensatznamen an.
Erzwingt das Entfernen.
Löscht aus dem Plattensatz
Gibt den Namen des Knotens an, der vom Plattensatz zu löschen ist.
Ersetzen Sie die fehlerhafte Platte auf dem Knoten, dessen Root-Dateisystem (/) wiederhergestellt wird.
Informationen zum Verfahren zum Ersetzen von Platten finden Sie in der Dokumentation zu Ihrem Server.
Booten Sie den Knoten, der wiederhergestellt wird.
Wenn Sie die Solaris-CD-Rom verwenden:
SPARC: Geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:
ok boot cdrom -s |
x86: Legen Sie die CD in das CD-Laufwerk des Systems ein und booten Sie das System, indem Sie es herunterfahren und anschließend neu starten. Geben Sie im Bildschirm für die aktuellen Boot-Parameter folgenden Befehl ein:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@ 7,1/sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -s |
Wenn Sie einen Solaris JumpStartTM-Server verwenden:
SPARC: Geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:
ok boot net -s |
x86: Booten Sie das System, indem Sie es herunterfahren und anschließend neu starten. Geben Sie im Bildschirm für die aktuellen Boot-Parameter folgenden Befehl ein:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@ 7,1/sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -s |
Erstellen Sie alle Partitionen und lagern Sie die Root-Platte mit dem format(1M)-Befehl aus.
Erstellen Sie das ursprüngliche Partitionsschema der fehlerhaften Platte neu.
Erstellen Sie das Root-Dateisystem (/) und die benötigten restlichen Dateisysteme mit dem newfs(1M)-Befehl.
Erstellen Sie die ursprünglich auf der fehlerhaften Platte vorhandenen Dateisysteme.
Vergessen Sie nicht, das /global/.devices/node@nodeid-Dateisystem zu erstellen.
Hängen Sie das Root-Dateisystem (/) in einem temporären Einhängepunkt ein.
# mount Gerät temp-Einhängepunkt |
Verwenden Sie zur Wiederherstellung des Root-Dateisystems (/) folgende Befehle.
# cd temp_Einhängepunkt # ufsrestore rvf Abbildgerät # rm restoresymtable # cd / # umount temp-mountpoint # fsck Im raw-Modus betriebenes Plattengerät |
Das Dateisystem ist nun wiederhergestellt.
Installieren Sie einen neuen Boot-Block auf der neuen Platte.
# /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk Im raw-Modus betriebenes Plattengerät |
Booten Sie den Knoten im Einzelbenutzermodus neu.
# reboot -- "-s" |
Ersetzen Sie die Platten-ID mit dem scdidadm(1M)-Befehl.
# scdidadm -R Root_Platte |
Verwenden Sie den metadb(1M)-Befehl zur Wiederherstellung der Zustands-Datenbankreplikate.
# metadb -c Kopien -af Im raw-Modus betriebenes Plattengerät |
Gibt die Anzahl der zu erstellenden Replikate an.
Das im raw-Modus betriebene Plattengerät, auf dem die Replikate erstellt werden sollen.
Fügt die Replikate hinzu.
Booten Sie den Knoten im Cluster-Modus neu.
Starten Sie den Vorgang zum Neubooten.
# reboot |
Während dieses Bootvorgangs wird möglicherweise eine Fehler- oder Warnmeldung angezeigt, die mit folgender Anweisung schließt:
Type control-d to proceed with normal startup, (or give root password for system maintenance): |
Drücken Sie Strg-D, um im Mehrbenutzermodus zu booten.
Verwenden Sie von einem anderen als dem wiederhergestellten Cluster-Knoten den metaset-Befehl, um allen Metasätzen den wiederhergestellten Knoten wieder hinzuzufügen.
phys-schost-2# metaset -s Satzname -a -h Knotenliste |
Erstellt den Host und fügt ihn dem Plattensatz hinzu.
Der Knoten wird im Cluster-Modus neu gebootet. Der Cluster ist betriebsbereit.
Das nachstehende Beispiel zeigt das Root-Dateisystem (/), das vom Plattengerät /dev/rmt/0 auf dem Knoten phys-schost-1 wiederhergestellt wurde. Der metaset-Befehl wird von einem anderen Knoten im Cluster (phys-schost-2) ausgeführt. Dabei wird der Knoten phys-schost-1 zuerst vom Plattensatz schost-1 entfernt und diesem später wieder hinzugefügt. Alle anderen Befehle werden von phys-schost-1 ausgeführt. Auf /dev/rdsk/c0t0d0s0 wird ein neuer Boot-Block erstellt, und auf /dev/rdsk/c0t0d0s4 werden drei Zustands-Datenbankreplikate für Zustandsdaten wieder erstellt.
[Melden Sie sich auf einem anderen als dem wiederherzustellenden Cluster-Knoten als Superbenutzer an.] [Entfernen Sie den Knoten aus dem Metasatz:] phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1 [Ersetzen Sie die fehlerhafte Platte und booten Sie den Knoten:] |
Booten des Knotens mit der Solaris-CD-Rom:
SPARC: Geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:
ok boot cdrom -s |
x86: Legen Sie die CD in das CD-Laufwerk des Systems ein und booten Sie das System, indem Sie es herunterfahren und anschließend neu starten. Geben Sie im Bildschirm für die aktuellen Boot-Parameter folgenden Befehl ein:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -s |
[Verwenden Sie format und newfs, um Partitionen und Dateisysteme neu zu erstellen.] [Hängen Sie das Root-Dateisystem in einem temporären Einhängepunkt ein:] # mount /dev/dsk/c0t0d0s0 /a [Stellen Sie das Root-Dateisystem wieder her:] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [Installieren Sie einen neuen Boot-Block:] # /usr/sbin/installboot /usr/platform/`uname \ -i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [Booten Sie im Einzelbenutzermodus neu:] # reboot -- "-s" [Ersetzen Sie die Platten-ID:] # scdidadm -R /dev/dsk/c0t0d0 [Stellen Sie die Datenbankreplikate wieder her:] # metadb -c 3 -af /dev/rdsk/c0t0d0s4 # reboot Press Control-d to boot into multiuser mode. [Fügen Sie den Knoten wieder dem Metasatz hinzu:] phys-schost-2# metaset -s schost-1 -a -h phys-schost-1 |
Stellen Sie mit diesem Verfahren ein Root-Dateisystem (/) wieder her, das sich auf einem Solstice DiskSuite-Metagerät oder einem Solaris Volume Manager-Datenträger befand, als die Sicherungen durchgeführt wurden. Dieses Verfahren wenden Sie in Fällen an, in denen zum Beispiel eine Root-Platte beschädigt ist und durch eine neue Platte ersetzt wird. Der wiederherzustellende Knoten sollte nicht gebootet werden. Stellen Sie sicher, dass der Cluster vor der Ausführung des Wiederherstellungsverfahrens problemlos läuft.
Sie müssen die neue Platte mit demselben Format wie die fehlerhafte Platte partitionieren; identifizieren Sie deshalb das Partitionsschema, bevor Sie mit diesem Verfahren beginnen, und erstellen Sie die benötigten Dateisysteme.
Melden Sie sich bei dem Cluster-Knoten als Superbenutzer an, der Zugriff auf den Metasatz hat und nicht der wiederherzustellende Knoten ist.
Entfernen Sie den Hostnamen des wiederherzustellenden Knotens aus allen Metasätzen.
# metaset -s Satzname -f -d -h Knotenliste |
Gibt den Metasatznamen an.
Erzwingt das Entfernen.
Löscht vom Metasatz.
Gibt den Namen des Knotens an, der aus dem Metasatz gelöscht werden soll.
Ersetzen Sie die fehlerhafte Platte auf dem Knoten, dessen Root-Dateisystem (/) wiederhergestellt wird.
Informationen zum Verfahren zum Ersetzen von Platten finden Sie in der Dokumentation zu Ihrem Server.
Booten Sie den Knoten, der wiederhergestellt wird.
Wenn Sie die Solaris-CD-Rom verwenden:
SPARC: Geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:
ok boot cdrom -s |
x86: Legen Sie die CD in das CD-Laufwerk des Systems ein und booten Sie das System, indem Sie es herunterfahren und anschließend neu starten. Geben Sie im Bildschirm für die aktuellen Boot-Parameter folgenden Befehl ein:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@ 7,1/sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -s |
Wenn Sie einen Solaris JumpStartTM-Server verwenden:
SPARC: Geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:
ok boot net -s |
x86: Booten Sie das System, indem Sie es herunterfahren und anschließend neu starten. Geben Sie im Bildschirm für die aktuellen Boot-Parameter folgenden Befehl ein:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@ 7,1/sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -s |
Erstellen Sie alle Partitionen und lagern Sie die Root-Platte mit dem format-Befehl aus.
Erstellen Sie das ursprüngliche Partitionsschema der fehlerhaften Platte neu.
Erstellen Sie das Root-Dateisystem (/) und die restlichen ggf. benötigten Dateisysteme mit dem newfs-Befehl.
Erstellen Sie die ursprünglich auf der fehlerhaften Platte vorhandenen Dateisysteme.
Vergessen Sie nicht, das /global/.devices/node@nodeid-Dateisystem zu erstellen.
Hängen Sie das Root-Dateisystem (/) in einem temporären Einhängepunkt ein.
# mount Gerät temp_Einhängepunkt |
Verwenden Sie zur Wiederherstellung des Root-Dateisystems (/) folgende Befehle.
# cd temp_Einhängepunkt # ufsrestore rvf Abbildgerät # rm restoresymtable |
Installieren Sie einen neuen Boot-Block auf der neuen Platte.
# /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk Im raw-Modus betriebenes Plattengerät |
Entfernen Sie die Zeilen mit MDD-Root-Informationen aus der /temp_Einhängepunkt/etc/system-Datei.
* Begin MDD root info (do not edit) forceload: misc/md_trans forceload: misc/md_raid forceload: misc/md_mirror forceload: misc/md_hotspares forceload: misc/md_stripe forceload: drv/pcipsy forceload: drv/glm forceload: drv/sd rootdev:/pseudo/md@0:0,10,blk * End MDD root info (do not edit) |
Ändern Sie die Datei /temp-mountpoint/etc/vfstab, um den Root-Eintrag von einem Solstice DiskSuite-Metagerät oder einem Solaris Volume Manager-Datenträger in einen entsprechenden normalen Bereich für jedes Dateisystem auf der Root-Platte zu ändern, die sich auf dem Metagerät oder Datenträger befindet.
Example: Change from— /dev/md/dsk/d10 /dev/md/rdsk/d10 / ufs 1 no - Change to— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 / ufs 1 no - |
Hängen Sie das temporäre Dateisystem aus, und prüfen Sie das im raw-Modus betriebene Plattengerät.
# cd / # umount temp-Einhängepunkt # fsck Im raw-Modus betriebenes Plattengerät |
Booten Sie den Knoten im Einzelbenutzermodus neu.
# reboot -- "-s" |
Ersetzen Sie die Platten-ID mit dem scdidadm-Befehl.
# scdidadm -R Root_Platte |
Verwenden Sie den metadb-Befehl zur erneuten Erstellung der Zustands-Datenbankreplikate.
# metadb -c Kopien -af Im raw-Modus betriebenes Plattengerät |
Gibt die Anzahl der zu erstellenden Replikate an.
Erstellt die ursprünglichen Zustands-Datenbankreplikate auf dem genannten im raw-Modus betriebenen Plattengerät.
Booten Sie den Knoten im Cluster-Modus neu.
Starten Sie den Vorgang zum Neubooten.
# reboot |
Während dieses Bootvorgangs werden Fehler- oder Warnmeldungen angezeigt, die mit folgender Anweisung schließen:
Type control-d to proceed with normal startup, (or give root password for system maintenance): |
Drücken Sie Strg-D, um im Mehrbenutzermodus zu booten.
Verwenden Sie von einem anderen als dem wiederhergestellten Cluster-Knoten den metaset-Befehl, um allen Metasätzen den wiederhergestellten Knoten wieder hinzuzufügen.
phys-schost-2# metaset -s Satzname -a -h Knotenliste |
Fügt (erstellt) den Metasatz hinzu.
Konfigurieren Sie mithilfe der Solstice DiskSuite-Dokumentation das Metagerät oder den Datenträger/Spiegel für das Root-System (/).
Der Knoten wird im Cluster-Modus neu gebootet. Der Cluster ist betriebsbereit.
Das nachstehende Beispiel zeigt das Root-Dateisystem (/), das vom Plattengerät /dev/rmt/0 auf dem Knoten phys-schost-1 wiederhergestellt wurde. Der metaset-Befehl wird von einem anderen Knoten im Cluster (phys-schost-2) ausgeführt. Dabei wird der Knoten phys-schost-1 zuerst vom Metagerät schost-1 entfernt und diesem später wieder hinzugefügt. Alle anderen Befehle werden von phys-schost-1 ausgeführt. Auf /dev/rdsk/c0t0d0s0 wird ein neuer Boot-Block erstellt und auf /dev/rdsk/c0t0d0s4 werden drei Zustands-Datenbankreplikate für Zustandsdaten wieder erstellt.
[Melden Sie sich bei einem anderen als dem wiederherzustellenden Cluster-Knoten mit Zugriff auf das Metasatz als Superbenutzer an.] [Entfernen Sie den Knoten aus dem Metasatz:] phys-schost-2# metaset -s schost-1 -f -d -h phys-schost-1 [Ersetzen Sie die fehlerhafte Platte, und booten Sie den Knoten:] |
Booten des Knotens mit der Solaris-CD-Rom:
SPARC: Geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:
ok boot cdrom -s |
x86: Legen Sie die CD in das CD-Laufwerk des Systems ein und booten Sie das System, indem Sie es herunterfahren und anschließend neu starten. Geben Sie im Bildschirm für die aktuellen Boot-Parameter folgenden Befehl ein:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -s |
[Verwenden Sie format und newfs, um Partitionen und Dateisysteme neu zu erstellen..] [Hängen Sie das Root-Dateisystem in einem temporären Einhängepunkt ein:] # mount /dev/dsk/c0t0d0s0 /a [Stellen Sie das Root-Dateisystem wieder her:] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable [Install a new boot block:] # /usr/sbin/installboot /usr/platform/`uname \ -i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [Löschen Sie in der Datei /temp-Einhängepunkt/etc/system die Zeilen für MDD-Root-Informationen:] * Begin MDD root info (do not edit) forceload: misc/md_trans forceload: misc/md_raid forceload: misc/md_mirror forceload: misc/md_hotspares forceload: misc/md_stripe forceload: drv/pcipsy forceload: drv/glm forceload: drv/sd rootdev:/pseudo/md@0:0,10,blk * End MDD root info (do not edit) [Bearbeiten Sie die Datei /temp-mountpoint/etc/vfstab] Example: Change from— /dev/md/dsk/d10 /dev/md/rdsk/d10 / ufs 1 no - Change to— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 /usr ufs 1 no - [Hängen Sie das temporäre Dateisystem aus, und prüfen Sie das im raw-Modus betriebene Plattengerät:] # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [Booten Sie im Einzelbenutzermodus neu:] # reboot -- "-s" [Ersetzen Sie die Platten-ID:] # scdidadm -R /dev/dsk/c0t0d0 [Stellen Sie die Datenbankreplikate wieder her:] # metadb -c 3 -af /dev/rdsk/c0t0d0s4 # reboot Type Control-d to boot into multiuser mode. [Fügen Sie den Knoten wieder dem Metasatz hinzu:] phys-schost-2# metaset -s schost-1 -a -h phys-schost-1 |
Verwenden Sie dieses Verfahren zur Wiederherstellung eines nicht eingekapselten Root-Dateisystems (/) auf einem Knoten. Der wiederherzustellende Knoten sollte nicht gebootet werden. Stellen Sie sicher, dass der Cluster vor der Ausführung des Wiederherstellungsverfahrens problemlos läuft.
Sie müssen die neue Platte mit demselben Format wie die fehlerhafte Platte partitionieren; identifizieren Sie deshalb das Partitionsschema, bevor Sie mit diesem Verfahren beginnen, und erstellen Sie die benötigten Dateisysteme.
Ersetzen Sie die fehlerhafte Platte auf dem Knoten, dessen Root-Dateisystem wiederhergestellt wird.
Informationen zum Verfahren zum Ersetzen von Platten finden Sie in der Dokumentation zu Ihrem Server.
Booten Sie den Knoten, der wiederhergestellt wird.
Wenn Sie die Solaris-CD-Rom verwenden, geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:
ok boot cdrom -s |
Wenn Sie einen Solaris JumpStartTM-Server verwenden, geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:
ok boot net -s |
Erstellen Sie alle Partitionen und lagern Sie die Root-Platte mit dem format-Befehl aus.
Erstellen Sie das ursprüngliche Partitionsschema der fehlerhaften Platte neu.
Erstellen Sie das Root-Dateisystem (/) und die restlichen ggf. benötigten Dateisysteme mit dem newfs-Befehl.
Erstellen Sie die ursprünglich auf der fehlerhaften Platte vorhandenen Dateisysteme.
Vergessen Sie nicht, das /global/.devices/node@nodeid-Dateisystem zu erstellen.
Hängen Sie das Root-Dateisystem (/) in einem temporären Einhängepunkt ein.
# mount Gerät temp-Einhängepunkt |
Stellen Sie das Root-Dateisystem (/) aus der Sicherungskopie wieder her, hängen Sie das Dateisystem aus, und prüfen Sie es.
# cd temp_Einhängepunkt # ufsrestore rvf Abbildgerät # rm restoresymtable # cd / # umount temp_Einhängepunkt # fsck Im raw-Modus betriebenes Plattengerät |
Das Dateisystem ist nun wiederhergestellt.
Installieren Sie einen neuen Boot-Block auf der neuen Platte.
# /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk Im raw-Modus betriebenes Plattengerät |
Booten Sie den Knoten im Einzelbenutzermodus neu.
Aktualisieren Sie die Platten-ID mit dem scdidadm-Befehl.
# scdidadm -R /dev/rdsk/Plattengerät |
Drücken Sie Steuerung-D, um im Mehrbenutzermodus fortzufahren.
Der Knoten wird im Cluster-Modus neu gebootet. Der Cluster ist betriebsbereit.
Das nachstehende Beispiel zeigt ein nicht eingekapseltes Root-Dateisystem (/), das vom Plattengerät /dev/rmt/0 auf dem Knoten phys-schost-1 wiederhergestellt wurde.
[Ersetzen Sie die fehlerhafte Platte und booten Sie den Knoten:] |
Booten Sie den Knoten mit der Solaris-CD-Rom. Geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:
ok boot cdrom -s ... [Verwenden Sie format und newfs, um Partitionen und Dateisysteme neu zu erstellen] [Hängen Sie das Root-Dateisystem in einem temporären Einhängepunkt ein:] # mount /dev/dsk/c0t0d0s0 /a [Stellen Sie das Root-Dateisystem wieder her:] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [Installieren Sie einen neuen Boot-Block:] # /usr/sbin/installboot /usr/platform/`uname \ -i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [Booten Sie im Einzelbenutzermodus neu:] # reboot -- "-s" [Aktualisieren Sie die Platten-ID:] # scdidadm -R /dev/rdsk/c0t0d0 [Drücken Sie Strg-D, um im Mehrbenutzermodus fortzufahren] |
Mit diesem Verfahren stellen Sie ein eingekapseltes Root-Dateisystem (/) auf einem Knoten wieder her. Der wiederherzustellende Knoten sollte nicht gebootet werden. Stellen Sie sicher, dass der Cluster vor der Ausführung des Wiederherstellungsverfahrens problemlos läuft.
Sie müssen die neue Platte mit demselben Format wie die fehlerhafte Platte partitionieren; identifizieren Sie deshalb das Partitionsschema, bevor Sie mit diesem Verfahren beginnen, und erstellen Sie die benötigten Dateisysteme.
Ersetzen Sie die fehlerhafte Platte auf dem Knoten, dessen Root-Dateisystem wiederhergestellt wird.
Informationen zum Verfahren zum Ersetzen von Platten finden Sie in der Dokumentation zu Ihrem Server.
Booten Sie den Knoten, der wiederhergestellt wird.
Wenn Sie die Solaris-CD-Rom verwenden, geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:
ok boot cdrom -s |
Wenn Sie einen Solaris JumpStartTM-Server verwenden, geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:
ok boot net -s |
Erstellen Sie alle Partitionen und lagern Sie die Root-Platte mit dem format-Befehl aus.
Erstellen Sie das ursprüngliche Partitionsschema der fehlerhaften Platte neu.
Erstellen Sie das Root-Dateisystem (/) und die restlichen ggf. benötigten Dateisysteme mit dem newfs-Befehl.
Erstellen Sie die ursprünglich auf der fehlerhaften Platte vorhandenen Dateisysteme.
Vergessen Sie nicht, das /global/.devices/node@nodeid-Dateisystem zu erstellen.
Hängen Sie das Root-Dateisystem (/) in einem temporären Einhängepunkt ein.
# mount Gerät temp-Einhängepunkt |
Stellen Sie das Root-Dateisystem (/) aus der Sicherungskopie wieder her.
# cd temp_Einhängepunkt # ufsrestore rvf Abbildgerät # rm restoresymtable |
Erstellen Sie eine leere install-db-Datei.
Diese versetzt den Knoten beim nächsten Neubooten in VxVM-Installationsmodus.
# touch /temp_Einhängepunkt /etc/vx/reconfig.d/state.d/install-db |
Entfernen Sie die folgenden Einträge aus der Datei /temp_Einhängepunkt/etc/system oder kommentieren Sie diese aus.
* rootdev:/pseudo/vxio@0:0 * set vxio:vol_rootdev_is_volume=1 |
Bearbeiten Sie die Datei /temp-Einhängepunkt/etc/vfstab und ersetzen Sie alle VxVM-Einhängepunkte durch Standard-Plattengeräte für die Root-Platte, beispielsweise /dev/dsk/c0t0d0s0.
Example: Change from— /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no - Change to— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 / ufs 1 no - |
Hängen Sie das temporäre Dateisystem aus, und prüfen Sie das Dateisystem.
# cd / # umount temp_Einhängepunkt # fsck Im raw-Modus betriebenes Plattengerät |
Installieren Sie den Boot-Block auf der neuen Platte.
# /usr/sbin/installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk Im raw-Modus betriebenes Plattengerät |
Booten Sie den Knoten im Einzelbenutzermodus neu.
# reboot -- "-s" |
Aktualisieren Sie die Platten-ID mit scdidadm(1M).
# scdidadm -R /dev/rdsk/c0t0d0 |
Führen Sie vxinstall aus, um die Platte zu einzukapseln und neu zu booten.
# vxinstall |
Wenn es bei der Unternummer zu einem Konflikt mit einem anderen System kommt, hängen Sie die globalen Geräte aus, und geben Sie der Plattengruppe eine neue Unternummer.
Hängen Sie das Dateisystem globaler Geräte auf dem Cluster-Knoten aus.
# umount /global/.devices/node@nodeid |
Geben Sie der Plattengruppe rootdg auf dem Cluster-Knoten eine neue Unternummer.
# vxdg reminor rootdg 100 |
Fahren Sie den Knoten herunter, und booten Sie ihn im Cluster-Modus neu.
# shutdown -g0 -i6 -y |
Das nachstehende Beispiel zeigt ein eingekapseltes Root-Dateisystem (/), das vom Plattengerät /dev/rmt/0 auf dem Knoten phys-schost-1 wiederhergestellt wurde.
[Ersetzen Sie die fehlerhafte Platte und booten Sie den Knoten:] |
Booten Sie den Knoten mit der Solaris-CD-Rom. Geben Sie an der OpenBoot PROM ok-Eingabeaufforderung folgenden Befehl ein:
ok boot cdrom -s ... [Verwenden Sie format und newfs, um Partitionen und Dateisysteme neu zu erstellen] [Hängen Sie das Root-Dateisystem in einem temporären Einhängepunkt ein:] # mount /dev/dsk/c0t0d0s0 /a [Stellen Sie das Root-Dateisystem wieder her:] # cd /a # ufsrestore rvf /dev/rmt/0 # rm restoresymtable [Erstellen Sie eine leere install-db-Datei:] # touch /a/etc/vx/reconfig.d/state.d/install-db [Bearbeiten Sie /etc/system im temporären Dateisystem und löschen Sie folgende Einträge oder kommentieren Sie sie aus::] # rootdev:/pseudo/vxio@0:0 # set vxio:vol_rootdev_is_volume=1 [Bearbeiten Sie /etc/vfstab im temporären Dateisystem:] Example: Change from— /dev/vx/dsk/rootdg/rootvol /dev/vx/rdsk/rootdg/rootvol / ufs 1 no- Change to— /dev/dsk/c0t0d0s0 /dev/rdsk/c0t0d0s0 / ufs 1 no - [Hängen Sie das temporäre Dateisystem aus und überprüfen Sie anschließend das Dateisystem:] # cd / # umount /a # fsck /dev/rdsk/c0t0d0s0 [Installieren Sie einen neuen Boot-Block:] # /usr/sbin/installboot /usr/platform/`uname \ -i`/lib/fs/ufs/bootblk /dev/rdsk/c0t0d0s0 [Booten Sie im Einzelbenutzermodus neu:] # reboot -- "-s" [Aktualisieren Sie die Platten-ID:] # scdidadm -R /dev/rdsk/c0t0d0 [Führen Sie vxinstall aus:] # vxinstall Choose to encapsulate the root disk. [Falls ein Konflikt bei der Unternummer auftritt, weisen Sie der rootdg-Datengruppe eine neue Unternummer zu:] # umount /global/.devices/node@nodeid # vxdg reminor rootdg 100 # shutdown -g0 -i6 -y |
Anweisungen zum Spiegeln der eingekapselten Root-Platte finden Sie im Sun Cluster Software Installation Guide for Solaris OS.