Sun Cluster Handbuch Systemverwaltung für Solaris OS

Sichern eines Clusters

Tabelle 9–1 Task Map: Sichern von Cluster-Dateien

Schritt 

Anweisungen siehe… 

Suchen der Namen der zu sichernden Dateisysteme 

So suchen Sie die Namen der zu sichernden Dateisysteme

Berechnen der erforderlichen Anzahl von Bändern, die zum Speichern einer kompletten Sicherung erforderlich sind 

So bestimmen Sie die Anzahl der erforderlichen Bänder für eine komplette Sicherung

Sichern des Root-Dateisystems 

So sichern Sie das Root-Dateisystem (/)

Durchführen einer Online-Sicherung für gespiegelte oder vernetzte Dateisysteme 

So führen Sie Online-Sicherungen für Spiegel durch (Solstice DiskSuite/Solaris Volume Manager)

 

SPARC: So führen Sie Online-Sicherungen für Datenträger durch (VERITAS Volume Manager)

ProcedureSo suchen Sie die Namen der zu sichernden Dateisysteme

Verwenden Sie dieses Verfahren, um die Namen der zu sichernden Dateisysteme zu bestimmen.

Schritte
  1. Zeigen Sie den Inhalt der /etc/vfstab-Datei an.

    Um diesen Befehl auszuführen, müssen Sie nicht Superuser sein oder eine entsprechende Rolle übernehmen.


    % more /etc/vfstab
    
  2. Suchen Sie in der Spalte mit den Einhängepunkten den Namen des Dateisystems, das Sie sichern möchten.

    Verwenden Sie diesen Namen beim Sichern des Dateisystems.


    % more /etc/vfstab 
    

Beispiel 9–1 Suchen von Namen für die zu sichernden Dateisysteme

Im folgenden Beispiel werden die Namen der verfügbaren, in der /etc/vfstab-Datei aufgelisteten Dateisysteme angezeigt.


% more /etc/vfstab
#device             device             mount  FS fsck  mount  mount
#to mount           to fsck            point  type     pass   at boot  options
#
#/dev/dsk/c1d0s2    /dev/rdsk/c1d0s2   /usr     ufs     1      yes      -
 f                  -                  /dev/fd  fd      -      no       -
 /proc              -                  /proc    proc    -      no       -
 /dev/dsk/c1t6d0s1  -                  -        swap    -      no       -
 /dev/dsk/c1t6d0s0  /dev/rdsk/c1t6d0s0 /        ufs     1      no       -
 /dev/dsk/c1t6d0s3  /dev/rdsk/c1t6d0s3 /cache   ufs     2      yes      -
 swap               -                  /tmp     tmpfs   -      yes      -

ProcedureSo bestimmen Sie die Anzahl der erforderlichen Bänder für eine komplette Sicherung

Verwenden Sie dieses Verfahren, um die Anzahl der Bänder zu berechnen, die Sie für die Sicherung eines Dateisystems benötigen.

Schritte
  1. Werden Sie Superuser oder übernehmen Sie eine entsprechende Rolle an dem Cluster-Knoten, den Sie sichern möchten.

  2. Schätzen Sie die Größe der Sicherungskopie in Bytes.


    # ufsdump S filesystem 
    
    S

    Zeigt die geschätzte Anzahl der Bytes an, die zum Durchführen der Sicherung erforderlich sind.

    filesystem

    Gibt den Namen des zu sichernden Dateisystems an.

  3. Teilen Sie die geschätzte Größe durch die Kapazität der Bänder um festzustellen, wie viele Bänder Sie benötigen.


Beispiel 9–2 Bestimmen der Anzahl der erforderlichen Bänder

Im nachfolgenden Beispiel passt der Umfang des Dateisystems mit 905,881,620 Bytes problemlos auf ein Band mit 4 GB (905,881,620 ÷ 4,000,000,000).


# ufsdump S /global/phys-schost-1
905881620

ProcedureSo sichern Sie das Root-Dateisystem (/)

Mit diesem Verfahren sichern Sie das Root-Dateisystem (/) eines Cluster-Knotens. Stellen Sie sich, dass der Cluster problemlos läuft, bevor Sie das Sicherungsverfahren durchführen.

Schritte
  1. Werden Sie Superuser oder übernehmen Sie eine entsprechende Rolle an dem Cluster-Knoten, den Sie sichern möchten.

  2. Schalten Sie alle laufenden Datendienste vom zu sichernden Knoten auf einen anderen Knoten im Cluster um.


    # scswitch -z -D disk-device-group[,...] -h node[,...]
    
    -z

    Führt die Umschaltung durch.

    -D disk-device-group

    Name der umzuschaltenden Plattengerätegruppe.

    -h node

    Name des Cluster-Knotens, auf den die Plattengerätegruppe umgeschaltet wird. Dieser Knoten wird zum neuen Primärknoten.

  3. Fahren Sie den Knoten herunter.


    # shutdown -g0 -y -i0
    
  4. Booten Sie den Cluster im Nicht-Cluster-Modus neu.

    • SPARC:


      ok boot -x
      
    • x86:


                            <<< Current Boot Parameters >>>
      Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@7,1/
      sd@0,0:a
      Boot args:
      
      Type  b [file-name] [boot-flags] <ENTER> to boot with options
      or    i <ENTER>                          to enter boot interpreter
      or    <ENTER>                            to boot with defaults
      
                        <<< timeout in 5 seconds >>>
      Select (b)oot or (i)nterpreter: b -x
      
  5. Sichern Sie das Root-Dateisystem (/).

    • Verwenden Sie folgenden Befehl, wenn die Root-Platte nicht eingekapselt ist.


      # ufsdump 0ucf dump-device /
      
    • Verwenden Sie folgenden Befehl, wenn die Root-Platte eingekapselt ist.


      # ufsdump 0ucf dump-device /dev/vx/rdsk/rootvol
      

    Weitere Informationen finden Sie in der Online-Dokumentation unter ufsdump(1M).

  6. Booten Sie den Knoten im Cluster-Modus neu.


    # init 6
    

Beispiel 9–3 Sichern des Root-Dateisystems (/)

Im folgenden Beispiel wird das Root-Dateisystem (/) auf dem Bandgerät /dev/rmt/0 gesichert.


# ufsdump 0ucf /dev/rmt/0 /
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 18 18:06:15 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/rdsk/c0t0d0s0 (phys-schost-1:/) to /dev/rmt/0
  DUMP: Mapping (Pass I) [regular files]
  DUMP: Mapping (Pass II) [directories]
  DUMP: Estimated 859086 blocks (419.48MB).
  DUMP: Dumping (Pass III) [directories]
  DUMP: Dumping (Pass IV) [regular files]
  DUMP: 859066 blocks (419.47MB) on 1 volume at 2495 KB/sec
  DUMP: DUMP IS DONE
  DUMP: Level 0 dump on Tue Apr 18 18:06:15 2000

ProcedureSo führen Sie Online-Sicherungen für Spiegel durch (Solstice DiskSuite/Solaris Volume Manager)

Ein gespiegeltes Solstice DiskSuite-Metagerät oder ein Solaris Volume Manager-Datenträger kann gesichert werden, ohne dass es/er ausgehängt wird bzw. ohne dass der gesamte Spiegel offline gesetzt wird. Einer der Unterspiegel muss vorübergehend offline genommen werden, wodurch die Spiegelung ausfällt; er kann jedoch wieder online gebracht und resynchronisiert werden, sobald die Sicherung abgeschlossen ist, ohne das System zu unterbrechen oder dem Benutzer den Datenzugriff zu verweigern. Bei der Verwendung von Spiegeln zur Online-Sicherung erhalten Sie einen "Schnappschuss" eines aktiven Dateisystems.

Möglicherweise kommt es zu Problemen, wenn das Programm unmittelbar vor der Ausführung des lockfs-Befehls Daten auf den Datenträger schreibt. Sie verhindern dieses Problem, indem Sie vorübergehend alle auf diesem Knoten laufenden Dienste stoppen. Stellen Sie außerdem sicher, dass der Cluster problemlos läuft, bevor Sie das Sicherungsverfahren durchführen.

Schritte
  1. Werden Sie Superuser oder übernehmen Sie eine entsprechende Rolle an dem Cluster-Knoten, den Sie sichern möchten.

  2. Verwenden Sie den Befehl metaset(1M), um festzulegen, welcher Knoten die Eigentümerschaft über den gesicherten Datenträger erhält.


    # metaset -s setname
    
    -s setname

    Gibt den Plattensatznamen an.

  3. Mit dem lockfs(1M)-Befehl und der -w-Option sperren Sie das Dateisystem für den Schreibzugriff.


    # lockfs -w mountpoint 
    

    Hinweis –

    Sie müssen das Dateisystem nur sperren, wenn der Spiegel ein UFS-Dateisystem enthält. Wenn beispielsweise das Solstice DiskSuite-Metagerät oder der Solaris Volume Manager-Datenträger als ein im raw-Modus betriebenes Gerät für die Datenbankverwaltungs-Software oder eine andere bestimmte Anwendung eingerichtet ist, ist die Verwendung des Befehls lockfs nicht erforderlich. Sie können jedoch das entsprechende Dienstprogramm Ihres Lieferanten ausführen, um die Pufferspeicher zu leeren und den Zugriff zu sperren.


  4. Mit dem metastat(1M)-Befehl bestimmen Sie die Namen der Unterspiegel.


    # metastat -s setname -p
    
    -p

    Zeigt den Status in einem der md.tab-Datei ähnlichen Format an.

  5. Mit dem metadetach(1M)-Befehl nehmen Sie einen Unterspiegel offline.


    # metadetach -s setname mirror submirror
    

    Hinweis –

    Der Lesezugriff erfolgt weiter über die verbleibenden Unterspiegel. Der offline genommene Unterspiegel ist jedoch nicht mehr synchronisiert, sobald der erste Schreibzugriff auf den Spiegel erfolgt. Diese Inkonsistenz wird korrigiert, sobald der offline genommene Unterspiegel wieder online gebracht wird. Sie müssen fsck nicht ausführen.


  6. Entsperren Sie die Dateisysteme und lassen Sie die Weiterführung der Schreibzugriffe zu. Verwenden Sie dazu den lockfs-Befehl mit der Option -u.


    # lockfs -u mountpoint 
    
  7. Führen Sie eine Dateisystemprüfung durch.


    # fsck /dev/md/diskset/rdsk/submirror
    
  8. Sichern Sie die den offline genommenen Unterspiegel auf einem Band oder einem anderen Speichermedium.

    Verwenden Sie den ufsdump(1M)-Befehl oder ein Sicherungsprogramm, das Sie normalerweise verwenden.


    # ufsdump 0ucf dump-device submirror
    

    Hinweis –

    Verwenden Sie den Namen des im raw-Modus betriebenen Geräts (/rdsk) für den Unterspiegel anstelle des Block-Gerätenamens (/dsk).


  9. Mit dem metattach(1M)-Befehl bringen Sie das Metagerät wieder online.


    # metattach -s setname mirror submirror
    

    Wenn das Metagerät oder der Datenträger online gebracht wird, erfolgt automatisch eine Resynchronisierung mit dem Spiegel.

  10. Mit dem metastat-Befehl überprüfen Sie, ob der Unterspiegel resynchronisiert wird.


    # metastat -s setname mirror
    

Beispiel 9–4 Durchführen von Online-Sicherungen für Spiegel (Solstice DiskSuite/Solaris Volume Manager)

Im nachstehenden Beispiel ist der Cluster-Knoten phys-schost-1 der Besitzer des Metasatzes schost-1; aus diesem Grund wird das Sicherungsverfahren von phys-schost-1 aus durchgeführt. Der Spiegel /dev/md/schost-1/dsk/d0 besteht aus den Unterspiegeln d10 , d20 und d30.


[Determine the owner of the metaset:]
# metaset -s schost-1
Set name = schost-1, Set number = 1
Host                Owner
  phys-schost-1     Yes 
...
[Lock the file system from writes:] 
# lockfs -w /global/schost-1
[List the submirrors:]
# metastat -s schost-1 -p
schost-1/d0 -m schost-1/d10 schost-1/d20 schost-1/d30 1
schost-1/d10 1 1 d4s0
schost-1/d20 1 1 d6s0
schost-1/d30 1 1 d8s0
[Take a submirror offline:]
# metadetach -s schost-1 d0 d30
[Unlock the file system:]
# lockfs -u /
[Check the file system:]
# fsck /dev/md/schost-1/rdsk/d30
[Copy the submirror to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/md/schost-1/rdsk/d30
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/md/schost-1/rdsk/d30 to /dev/rdsk/c1t9d0s0.
  ...
  DUMP: DUMP IS DONE
[Bring the submirror back online:]
# metattach -s schost-1 d0 d30
schost-1/d0: submirror schost-1/d30 is attached
[Resync the submirror:]
# metastat -s schost-1 d0
schost-1/d0: Mirror
    Submirror 0: schost-0/d10
      State: Okay         
    Submirror 1: schost-0/d20
      State: Okay
    Submirror 2: schost-0/d30
      State: Resyncing
    Resync in progress: 42% done
    Pass: 1
    Read option: roundrobin (default)
...

ProcedureSPARC: So führen Sie Online-Sicherungen für Datenträger durch (VERITAS Volume Manager)

VxVM identifiziert einen gespiegelten Datenträger als Plex. Ein Plex kann gesichert werden, ohne ihn auszuhängen oder den ganzen Datenträger offline zu nehmen. Das geschieht durch das Erstellen einer Schnappschusskopie des Datenträgers und einer Sicherung dieses temporären Datenträgers, ohne das System zu stoppen oder den Benutzern den Datenzugriff zu verweigern.

Stellen Sie sich, dass der Cluster problemlos läuft, bevor Sie das Sicherungsverfahren durchführen.

Schritte
  1. Melden Sie sich an einem beliebigen Knoten im Cluster an und werden Sie Superuser, oder übernehmen Sie eine entsprechende Rolle am aktuellen Primärknoten für die Plattengruppe auf dem Cluster.

  2. Listen Sie die Plattengruppeninformationen auf.


    # vxprint -g diskgroup
    
  3. Führen Sie den scstat(1M)-Befehl aus, um festzustellen, auf welchem Knoten die Plattengruppe aktuell importiert ist, das heißt, welcher Knoten der Primärknoten der Plattengruppe ist.


    # scstat -D
    
    -D

    Zeigt den Status aller Plattengerätegruppen an.

  4. Erstellen Sie einen Schnappschuss des Datenträgers mit dem vxassist-Befehl.


    # vxassist -g diskgroup snapstart volume
    

    Hinweis –

    Das Erstellen eines Schnappschusses kann je nach Umfang Ihres Datenträgers längere Zeit in Anspruch nehmen.


  5. Überprüfen Sie, ob der neue Datenträger erstellt wurde.


    # vxprint -g diskgroup
    

    Sobald der Schnappschuss abgeschlossen ist, wird im Feld State der Status Snapdone für die ausgewählte Plattengruppe angezeigt.

  6. Stoppen Sie alle auf das Dateisystem zugreifenden Datendienste.


    #  scswitch -z -g resource-group[,...] -h ““ 
    

    Hinweis –

    Mit dem Stoppen aller Datendienste stellen Sie sicher, dass das Daten-Dateisystem richtig gesichert wird. Wenn keine Datendienste ausgeführt werden, müssen Sie Schritt 6 und Schritt 8 nicht ausführen.


  7. Erstellen Sie einen Sicherungsdatenträger mit dem Namen bkup-vol, und hängen Sie den Schnappschuss mit dem vxassist-Befehl an.


    # vxassist -g diskgroup snapshot volume bkup-vol
    
  8. Starten Sie sämtliche Datendienste, die in Schritt 6 angehalten wurden, mit dem scswitch(1M)-Befehl an.


    # scswitch -z -g resource-group[,...] -h node[,...]
    
  9. Überprüfen Sie mit dem vxprint-Befehl, ob der Datenträger jetzt an den neuen Datenträger bkup-vol angehängt ist.


    # vxprint -g diskgroup
    
  10. Registrieren Sie die Änderungen der Plattengruppenkonfiguration.


    # scconf -c -D name=diskgroup,sync
    
  11. Überprüfen Sie den Sicherungsdatenträger mit dem fsck-Befehl.


    # fsck -y /dev/vx/rdsk/diskgroup/bkup-vol
    
  12. Erstellen Sie eine Sicherungskopie des Datenträgers bkup-vol auf Band oder auf ein anderes Speichermedium.

    Verwenden Sie den Befehl ufsdump(1M) oder ein Sicherungsprogramm, das Sie normalerweise verwenden.


    # ufsdump 0ucf dump-device /dev/vx/dsk/diskgroup/bkup-vol
    
  13. Entfernen Sie den temporären Datenträger mit vxedit.


     # vxedit -rf rm bkup-vol
    
  14. Registrieren Sie die Änderungen der Plattengruppenkonfiguration mit dem scconf(1M)-Befehl.


    # scconf -c -D name=diskgroup,sync
    

Beispiel 9–5 SPARC: Durchführen von Online-Sicherungen für Datenträger (VERITAS Volume Manager)

Im folgenden Beispiel ist der Cluster-Knoten phys-schost-2 der Primäreigentümer der Plattengerätegruppe schost-1; deshalb wird das Sicherungsverfahren von phys-schost-2 durchgeführt. Der Datenträger /vo101 wird kopiert und dann an den neuen Datenträger bkup-vol angehängt.


[Become superuser or assume an equivalent role on the primary node.]
[Identify the current primary node for the disk device group:]
# scstat -D
-- Device Group Servers --
                         Device Group     Primary           Secondary
                         ------------     -------           ---------
 Device group servers:   rmt/1            -                 -
 Device group servers:   schost-1         phys-schost-2     phys-schost-1

-- Device Group Status --
                             Device Group        Status              
                             ------------        ------              
 Device group status:        rmt/1               Offline
 Device group status:        schost-1            Online
[List the disk device group information:]
# vxprint -g schost-1
TY NAME            ASSOC     KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
 
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
[Start the snapshot operation:]
# vxassist -g schost-1 snapstart vol01
[Verify the new volume was created:]
# vxprint -g schost-1
TY NAME            ASSOC    KSTATE    LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1   -        -        -      -        -      -
  
dm schost-101     c1t1d0s2   -        17678493 -      -        -      -
dm schost-102     c1t2d0s2   -        17678493 -      -        -      -
dm schost-103     c2t1d0s2   -        8378640  -      -        -      -
dm schost-104     c2t2d0s2   -        17678493 -      -        -      -
dm schost-105     c1t3d0s2   -        17678493 -      -        -      -
dm schost-106     c2t3d0s2   -        17678493 -      -        -      -
  
v  vol01          gen        ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01   ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01   ENABLED  104139   0      -        -      -
pl vol01-02       vol01      ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02   ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02   ENABLED  104139   0      -        -      -
pl vol01-03       vol01      ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03   ENABLED  5        LOG    -        -      -
pl vol01-04       vol01      ENABLED  208331   -      SNAPDONE -      -
sd schost-105-01  vol01-04   ENABLED  104139   0      -        -      -
sd schost-106-01  vol01-04   ENABLED  104139   0      -        -      -
[Stop data services, if necessary:]
# scswitch -z -g nfs-rg -h ““
[Create a copy of the volume:]
# vxassist -g schost-1 snapshot vol01 bkup-vol
[Restart data services, if necessary:]
# scswitch -z -g nfs-rg -h phys-schost-1
[Verify bkup-vol was created:]
# vxprint -g schost-1
TY NAME           ASSOC       KSTATE   LENGTH   PLOFFS STATE   TUTIL0  PUTIL0
dg schost-1       schost-1    -        -        -      -        -      -
 
dm schost-101     c1t1d0s2    -        17678493 -      -        -      -
...
 
v  bkup-vol       gen         ENABLED  204800   -      ACTIVE   -      -
pl bkup-vol-01    bkup-vol    ENABLED  208331   -      ACTIVE   -      -
sd schost-105-01  bkup-vol-01 ENABLED  104139   0      -        -      -
sd schost-106-01  bkup-vol-01 ENABLED  104139   0      -        -      -
 
v  vol01          gen         ENABLED  204800   -      ACTIVE   -      -
pl vol01-01       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-101-01  vol01-01    ENABLED  104139   0      -        -      -
sd schost-102-01  vol01-01    ENABLED  104139   0      -        -      -
pl vol01-02       vol01       ENABLED  208331   -      ACTIVE   -      -
sd schost-103-01  vol01-02    ENABLED  103680   0      -        -      -
sd schost-104-01  vol01-02    ENABLED  104139   0      -        -      -
pl vol01-03       vol01       ENABLED  LOGONLY  -      ACTIVE   -      -
sd schost-103-02  vol01-03    ENABLED  5        LOG    -        -      -
[Synchronize the disk group with cluster framework:]
# scconf -c -D name=schost-1,sync
[Check the file systems:]
# fsck -y /dev/vx/rdsk/schost-1/bkup-vol
[Copy bkup-vol to the backup device:]
# ufsdump 0ucf /dev/rmt/0 /dev/vx/rdsk/schost-1/bkup-vol
  DUMP: Writing 63 Kilobyte records
  DUMP: Date of this level 0 dump: Tue Apr 25 16:15:51 2000
  DUMP: Date of last level 0 dump: the epoch
  DUMP: Dumping /dev/vx/dsk/schost-2/bkup-vol to /dev/rmt/0.
  ...
  DUMP: DUMP IS DONE
[Remove the bkup-volume:]
# vxedit -rf rm bkup-vol
[Synchronize the disk group:]
# scconf -c -D name=schost-1,sync