Schritt |
Anweisungen siehe… |
---|---|
Suchen der Namen der zu sichernden Dateisysteme | |
Berechnen der erforderlichen Anzahl von Bändern, die zum Speichern einer kompletten Sicherung erforderlich sind |
So bestimmen Sie die Anzahl der erforderlichen Bänder für eine komplette Sicherung |
Sichern des Root-Dateisystems | |
Durchführen einer Online-Sicherung für gespiegelte oder vernetzte Dateisysteme |
So führen Sie Online-Sicherungen für Spiegel durch (Solstice DiskSuite/Solaris Volume Manager) |
SPARC: So führen Sie Online-Sicherungen für Datenträger durch (VERITAS Volume Manager) |
Verwenden Sie dieses Verfahren, um die Namen der zu sichernden Dateisysteme zu bestimmen.
Zeigen Sie den Inhalt der /etc/vfstab-Datei an.
Um diesen Befehl auszuführen, müssen Sie nicht Superuser sein oder eine entsprechende Rolle übernehmen.
% more /etc/vfstab |
Suchen Sie in der Spalte mit den Einhängepunkten den Namen des Dateisystems, das Sie sichern möchten.
Verwenden Sie diesen Namen beim Sichern des Dateisystems.
% more /etc/vfstab |
Im folgenden Beispiel werden die Namen der verfügbaren, in der /etc/vfstab-Datei aufgelisteten Dateisysteme angezeigt.
% more /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # #/dev/dsk/c1d0s2 /dev/rdsk/c1d0s2 /usr ufs 1 yes - f - /dev/fd fd - no - /proc - /proc proc - no - /dev/dsk/c1t6d0s1 - - swap - no - /dev/dsk/c1t6d0s0 /dev/rdsk/c1t6d0s0 / ufs 1 no - /dev/dsk/c1t6d0s3 /dev/rdsk/c1t6d0s3 /cache ufs 2 yes - swap - /tmp tmpfs - yes - |
Verwenden Sie dieses Verfahren, um die Anzahl der Bänder zu berechnen, die Sie für die Sicherung eines Dateisystems benötigen.
Werden Sie Superuser oder übernehmen Sie eine entsprechende Rolle an dem Cluster-Knoten, den Sie sichern möchten.
Schätzen Sie die Größe der Sicherungskopie in Bytes.
# ufsdump S filesystem |
Zeigt die geschätzte Anzahl der Bytes an, die zum Durchführen der Sicherung erforderlich sind.
Gibt den Namen des zu sichernden Dateisystems an.
Teilen Sie die geschätzte Größe durch die Kapazität der Bänder um festzustellen, wie viele Bänder Sie benötigen.
Im nachfolgenden Beispiel passt der Umfang des Dateisystems mit 905,881,620 Bytes problemlos auf ein Band mit 4 GB (905,881,620 ÷ 4,000,000,000).
# ufsdump S /global/phys-schost-1 905881620 |
Mit diesem Verfahren sichern Sie das Root-Dateisystem (/) eines Cluster-Knotens. Stellen Sie sich, dass der Cluster problemlos läuft, bevor Sie das Sicherungsverfahren durchführen.
Werden Sie Superuser oder übernehmen Sie eine entsprechende Rolle an dem Cluster-Knoten, den Sie sichern möchten.
Schalten Sie alle laufenden Datendienste vom zu sichernden Knoten auf einen anderen Knoten im Cluster um.
# scswitch -z -D disk-device-group[,...] -h node[,...] |
Führt die Umschaltung durch.
Name der umzuschaltenden Plattengerätegruppe.
Name des Cluster-Knotens, auf den die Plattengerätegruppe umgeschaltet wird. Dieser Knoten wird zum neuen Primärknoten.
Fahren Sie den Knoten herunter.
# shutdown -g0 -y -i0 |
Booten Sie den Cluster im Nicht-Cluster-Modus neu.
SPARC:
ok boot -x |
x86:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/ sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b -x |
Sichern Sie das Root-Dateisystem (/).
Verwenden Sie folgenden Befehl, wenn die Root-Platte nicht eingekapselt ist.
# ufsdump 0ucf dump-device / |
Verwenden Sie folgenden Befehl, wenn die Root-Platte eingekapselt ist.
# ufsdump 0ucf dump-device /dev/vx/rdsk/rootvol |
Weitere Informationen finden Sie in der Online-Dokumentation unter ufsdump(1M).
Booten Sie den Knoten im Cluster-Modus neu.
# init 6 |
Im folgenden Beispiel wird das Root-Dateisystem (/) auf dem Bandgerät /dev/rmt/0 gesichert.
# ufsdump 0ucf /dev/rmt/0 / DUMP: Writing 63 Kilobyte records DUMP: Date of this level 0 dump: Tue Apr 18 18:06:15 2000 DUMP: Date of last level 0 dump: the epoch DUMP: Dumping /dev/rdsk/c0t0d0s0 (phys-schost-1:/) to /dev/rmt/0 DUMP: Mapping (Pass I) [regular files] DUMP: Mapping (Pass II) [directories] DUMP: Estimated 859086 blocks (419.48MB). DUMP: Dumping (Pass III) [directories] DUMP: Dumping (Pass IV) [regular files] DUMP: 859066 blocks (419.47MB) on 1 volume at 2495 KB/sec DUMP: DUMP IS DONE DUMP: Level 0 dump on Tue Apr 18 18:06:15 2000 |
Ein gespiegeltes Solstice DiskSuite-Metagerät oder ein Solaris Volume Manager-Datenträger kann gesichert werden, ohne dass es/er ausgehängt wird bzw. ohne dass der gesamte Spiegel offline gesetzt wird. Einer der Unterspiegel muss vorübergehend offline genommen werden, wodurch die Spiegelung ausfällt; er kann jedoch wieder online gebracht und resynchronisiert werden, sobald die Sicherung abgeschlossen ist, ohne das System zu unterbrechen oder dem Benutzer den Datenzugriff zu verweigern. Bei der Verwendung von Spiegeln zur Online-Sicherung erhalten Sie einen "Schnappschuss" eines aktiven Dateisystems.
Möglicherweise kommt es zu Problemen, wenn das Programm unmittelbar vor der Ausführung des lockfs-Befehls Daten auf den Datenträger schreibt. Sie verhindern dieses Problem, indem Sie vorübergehend alle auf diesem Knoten laufenden Dienste stoppen. Stellen Sie außerdem sicher, dass der Cluster problemlos läuft, bevor Sie das Sicherungsverfahren durchführen.
Werden Sie Superuser oder übernehmen Sie eine entsprechende Rolle an dem Cluster-Knoten, den Sie sichern möchten.
Verwenden Sie den Befehl metaset(1M), um festzulegen, welcher Knoten die Eigentümerschaft über den gesicherten Datenträger erhält.
# metaset -s setname |
Gibt den Plattensatznamen an.
Mit dem lockfs(1M)-Befehl und der -w-Option sperren Sie das Dateisystem für den Schreibzugriff.
# lockfs -w mountpoint |
Sie müssen das Dateisystem nur sperren, wenn der Spiegel ein UFS-Dateisystem enthält. Wenn beispielsweise das Solstice DiskSuite-Metagerät oder der Solaris Volume Manager-Datenträger als ein im raw-Modus betriebenes Gerät für die Datenbankverwaltungs-Software oder eine andere bestimmte Anwendung eingerichtet ist, ist die Verwendung des Befehls lockfs nicht erforderlich. Sie können jedoch das entsprechende Dienstprogramm Ihres Lieferanten ausführen, um die Pufferspeicher zu leeren und den Zugriff zu sperren.
Mit dem metastat(1M)-Befehl bestimmen Sie die Namen der Unterspiegel.
# metastat -s setname -p |
Zeigt den Status in einem der md.tab-Datei ähnlichen Format an.
Mit dem metadetach(1M)-Befehl nehmen Sie einen Unterspiegel offline.
# metadetach -s setname mirror submirror |
Der Lesezugriff erfolgt weiter über die verbleibenden Unterspiegel. Der offline genommene Unterspiegel ist jedoch nicht mehr synchronisiert, sobald der erste Schreibzugriff auf den Spiegel erfolgt. Diese Inkonsistenz wird korrigiert, sobald der offline genommene Unterspiegel wieder online gebracht wird. Sie müssen fsck nicht ausführen.
Entsperren Sie die Dateisysteme und lassen Sie die Weiterführung der Schreibzugriffe zu. Verwenden Sie dazu den lockfs-Befehl mit der Option -u.
# lockfs -u mountpoint |
Führen Sie eine Dateisystemprüfung durch.
# fsck /dev/md/diskset/rdsk/submirror |
Sichern Sie die den offline genommenen Unterspiegel auf einem Band oder einem anderen Speichermedium.
Verwenden Sie den ufsdump(1M)-Befehl oder ein Sicherungsprogramm, das Sie normalerweise verwenden.
# ufsdump 0ucf dump-device submirror |
Verwenden Sie den Namen des im raw-Modus betriebenen Geräts (/rdsk) für den Unterspiegel anstelle des Block-Gerätenamens (/dsk).
Mit dem metattach(1M)-Befehl bringen Sie das Metagerät wieder online.
# metattach -s setname mirror submirror |
Wenn das Metagerät oder der Datenträger online gebracht wird, erfolgt automatisch eine Resynchronisierung mit dem Spiegel.
Mit dem metastat-Befehl überprüfen Sie, ob der Unterspiegel resynchronisiert wird.
# metastat -s setname mirror |
Im nachstehenden Beispiel ist der Cluster-Knoten phys-schost-1 der Besitzer des Metasatzes schost-1; aus diesem Grund wird das Sicherungsverfahren von phys-schost-1 aus durchgeführt. Der Spiegel /dev/md/schost-1/dsk/d0 besteht aus den Unterspiegeln d10 , d20 und d30.
[Determine the owner of the metaset:] # metaset -s schost-1 Set name = schost-1, Set number = 1 Host Owner phys-schost-1 Yes ... [Lock the file system from writes:] # lockfs -w /global/schost-1 [List the submirrors:] # metastat -s schost-1 -p schost-1/d0 -m schost-1/d10 schost-1/d20 schost-1/d30 1 schost-1/d10 1 1 d4s0 schost-1/d20 1 1 d6s0 schost-1/d30 1 1 d8s0 [Take a submirror offline:] # metadetach -s schost-1 d0 d30 [Unlock the file system:] # lockfs -u / [Check the file system:] # fsck /dev/md/schost-1/rdsk/d30 [Copy the submirror to the backup device:] # ufsdump 0ucf /dev/rmt/0 /dev/md/schost-1/rdsk/d30 DUMP: Writing 63 Kilobyte records DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000 DUMP: Date of last level 0 dump: the epoch DUMP: Dumping /dev/md/schost-1/rdsk/d30 to /dev/rdsk/c1t9d0s0. ... DUMP: DUMP IS DONE [Bring the submirror back online:] # metattach -s schost-1 d0 d30 schost-1/d0: submirror schost-1/d30 is attached [Resync the submirror:] # metastat -s schost-1 d0 schost-1/d0: Mirror Submirror 0: schost-0/d10 State: Okay Submirror 1: schost-0/d20 State: Okay Submirror 2: schost-0/d30 State: Resyncing Resync in progress: 42% done Pass: 1 Read option: roundrobin (default) ... |
VxVM identifiziert einen gespiegelten Datenträger als Plex. Ein Plex kann gesichert werden, ohne ihn auszuhängen oder den ganzen Datenträger offline zu nehmen. Das geschieht durch das Erstellen einer Schnappschusskopie des Datenträgers und einer Sicherung dieses temporären Datenträgers, ohne das System zu stoppen oder den Benutzern den Datenzugriff zu verweigern.
Stellen Sie sich, dass der Cluster problemlos läuft, bevor Sie das Sicherungsverfahren durchführen.
Melden Sie sich an einem beliebigen Knoten im Cluster an und werden Sie Superuser, oder übernehmen Sie eine entsprechende Rolle am aktuellen Primärknoten für die Plattengruppe auf dem Cluster.
Listen Sie die Plattengruppeninformationen auf.
# vxprint -g diskgroup |
Führen Sie den scstat(1M)-Befehl aus, um festzustellen, auf welchem Knoten die Plattengruppe aktuell importiert ist, das heißt, welcher Knoten der Primärknoten der Plattengruppe ist.
# scstat -D |
Zeigt den Status aller Plattengerätegruppen an.
Erstellen Sie einen Schnappschuss des Datenträgers mit dem vxassist-Befehl.
# vxassist -g diskgroup snapstart volume |
Das Erstellen eines Schnappschusses kann je nach Umfang Ihres Datenträgers längere Zeit in Anspruch nehmen.
Überprüfen Sie, ob der neue Datenträger erstellt wurde.
# vxprint -g diskgroup |
Sobald der Schnappschuss abgeschlossen ist, wird im Feld State der Status Snapdone für die ausgewählte Plattengruppe angezeigt.
Stoppen Sie alle auf das Dateisystem zugreifenden Datendienste.
# scswitch -z -g resource-group[,...] -h ““ |
Mit dem Stoppen aller Datendienste stellen Sie sicher, dass das Daten-Dateisystem richtig gesichert wird. Wenn keine Datendienste ausgeführt werden, müssen Sie Schritt 6 und Schritt 8 nicht ausführen.
Erstellen Sie einen Sicherungsdatenträger mit dem Namen bkup-vol, und hängen Sie den Schnappschuss mit dem vxassist-Befehl an.
# vxassist -g diskgroup snapshot volume bkup-vol |
Starten Sie sämtliche Datendienste, die in Schritt 6 angehalten wurden, mit dem scswitch(1M)-Befehl an.
# scswitch -z -g resource-group[,...] -h node[,...] |
Überprüfen Sie mit dem vxprint-Befehl, ob der Datenträger jetzt an den neuen Datenträger bkup-vol angehängt ist.
# vxprint -g diskgroup |
Registrieren Sie die Änderungen der Plattengruppenkonfiguration.
# scconf -c -D name=diskgroup,sync |
Überprüfen Sie den Sicherungsdatenträger mit dem fsck-Befehl.
# fsck -y /dev/vx/rdsk/diskgroup/bkup-vol |
Erstellen Sie eine Sicherungskopie des Datenträgers bkup-vol auf Band oder auf ein anderes Speichermedium.
Verwenden Sie den Befehl ufsdump(1M) oder ein Sicherungsprogramm, das Sie normalerweise verwenden.
# ufsdump 0ucf dump-device /dev/vx/dsk/diskgroup/bkup-vol |
Entfernen Sie den temporären Datenträger mit vxedit.
# vxedit -rf rm bkup-vol |
Registrieren Sie die Änderungen der Plattengruppenkonfiguration mit dem scconf(1M)-Befehl.
# scconf -c -D name=diskgroup,sync |
Im folgenden Beispiel ist der Cluster-Knoten phys-schost-2 der Primäreigentümer der Plattengerätegruppe schost-1; deshalb wird das Sicherungsverfahren von phys-schost-2 durchgeführt. Der Datenträger /vo101 wird kopiert und dann an den neuen Datenträger bkup-vol angehängt.
[Become superuser or assume an equivalent role on the primary node.] [Identify the current primary node for the disk device group:] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: rmt/1 - - Device group servers: schost-1 phys-schost-2 phys-schost-1 -- Device Group Status -- Device Group Status ------------ ------ Device group status: rmt/1 Offline Device group status: schost-1 Online [List the disk device group information:] # vxprint -g schost-1 TY NAME ASSOC KSTATE LENGTH PLOFFS STATE TUTIL0 PUTIL0 dg schost-1 schost-1 - - - - - - dm schost-101 c1t1d0s2 - 17678493 - - - - dm schost-102 c1t2d0s2 - 17678493 - - - - dm schost-103 c2t1d0s2 - 8378640 - - - - dm schost-104 c2t2d0s2 - 17678493 - - - - dm schost-105 c1t3d0s2 - 17678493 - - - - dm schost-106 c2t3d0s2 - 17678493 - - - - v vol01 gen ENABLED 204800 - ACTIVE - - pl vol01-01 vol01 ENABLED 208331 - ACTIVE - - sd schost-101-01 vol01-01 ENABLED 104139 0 - - - sd schost-102-01 vol01-01 ENABLED 104139 0 - - - pl vol01-02 vol01 ENABLED 208331 - ACTIVE - - sd schost-103-01 vol01-02 ENABLED 103680 0 - - - sd schost-104-01 vol01-02 ENABLED 104139 0 - - - pl vol01-03 vol01 ENABLED LOGONLY - ACTIVE - - sd schost-103-02 vol01-03 ENABLED 5 LOG - - - [Start the snapshot operation:] # vxassist -g schost-1 snapstart vol01 [Verify the new volume was created:] # vxprint -g schost-1 TY NAME ASSOC KSTATE LENGTH PLOFFS STATE TUTIL0 PUTIL0 dg schost-1 schost-1 - - - - - - dm schost-101 c1t1d0s2 - 17678493 - - - - dm schost-102 c1t2d0s2 - 17678493 - - - - dm schost-103 c2t1d0s2 - 8378640 - - - - dm schost-104 c2t2d0s2 - 17678493 - - - - dm schost-105 c1t3d0s2 - 17678493 - - - - dm schost-106 c2t3d0s2 - 17678493 - - - - v vol01 gen ENABLED 204800 - ACTIVE - - pl vol01-01 vol01 ENABLED 208331 - ACTIVE - - sd schost-101-01 vol01-01 ENABLED 104139 0 - - - sd schost-102-01 vol01-01 ENABLED 104139 0 - - - pl vol01-02 vol01 ENABLED 208331 - ACTIVE - - sd schost-103-01 vol01-02 ENABLED 103680 0 - - - sd schost-104-01 vol01-02 ENABLED 104139 0 - - - pl vol01-03 vol01 ENABLED LOGONLY - ACTIVE - - sd schost-103-02 vol01-03 ENABLED 5 LOG - - - pl vol01-04 vol01 ENABLED 208331 - SNAPDONE - - sd schost-105-01 vol01-04 ENABLED 104139 0 - - - sd schost-106-01 vol01-04 ENABLED 104139 0 - - - [Stop data services, if necessary:] # scswitch -z -g nfs-rg -h ““ [Create a copy of the volume:] # vxassist -g schost-1 snapshot vol01 bkup-vol [Restart data services, if necessary:] # scswitch -z -g nfs-rg -h phys-schost-1 [Verify bkup-vol was created:] # vxprint -g schost-1 TY NAME ASSOC KSTATE LENGTH PLOFFS STATE TUTIL0 PUTIL0 dg schost-1 schost-1 - - - - - - dm schost-101 c1t1d0s2 - 17678493 - - - - ... v bkup-vol gen ENABLED 204800 - ACTIVE - - pl bkup-vol-01 bkup-vol ENABLED 208331 - ACTIVE - - sd schost-105-01 bkup-vol-01 ENABLED 104139 0 - - - sd schost-106-01 bkup-vol-01 ENABLED 104139 0 - - - v vol01 gen ENABLED 204800 - ACTIVE - - pl vol01-01 vol01 ENABLED 208331 - ACTIVE - - sd schost-101-01 vol01-01 ENABLED 104139 0 - - - sd schost-102-01 vol01-01 ENABLED 104139 0 - - - pl vol01-02 vol01 ENABLED 208331 - ACTIVE - - sd schost-103-01 vol01-02 ENABLED 103680 0 - - - sd schost-104-01 vol01-02 ENABLED 104139 0 - - - pl vol01-03 vol01 ENABLED LOGONLY - ACTIVE - - sd schost-103-02 vol01-03 ENABLED 5 LOG - - - [Synchronize the disk group with cluster framework:] # scconf -c -D name=schost-1,sync [Check the file systems:] # fsck -y /dev/vx/rdsk/schost-1/bkup-vol [Copy bkup-vol to the backup device:] # ufsdump 0ucf /dev/rmt/0 /dev/vx/rdsk/schost-1/bkup-vol DUMP: Writing 63 Kilobyte records DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000 DUMP: Date of last level 0 dump: the epoch DUMP: Dumping /dev/vx/dsk/schost-2/bkup-vol to /dev/rmt/0. ... DUMP: DUMP IS DONE [Remove the bkup-volume:] # vxedit -rf rm bkup-vol [Synchronize the disk group:] # scconf -c -D name=schost-1,sync |