Sun Cluster Handbuch Softwareinstallation für Solaris OS

Kapitel 6 Konfigurieren der Datenreplikation mit der Sun StorEdge Availability Suite-Software

Dieses Kabitel bietet Richtlinien für die Konfiguration der Datenreplikation zwischen Clustern durch Verwendung der Software Sun StorEdge Availability Suite 3.1 oder 3.2.

Des Weiteren wird anhand eines Beispiels dargestellt, wie die Datenreplikation für eine NFS-Anwendung mithilfe der Sun StorEdge Availability Suite-Software konfiguriert wurde. In diesem Beispiel wird eine spezifische Cluster-Konfiguration verwendet. Zudem werden detaillierte Informationen zur Durchführung einzelner Aufgaben bereitgestellt. Die für sonstige Anwendungen oder Cluster-Konfigurationen erforderlichen Schritte werden jedoch nicht aufgeführt.

Dieses Kapitel enthält die folgenden Abschnitte:

Einführung in die Datenreplikation

In diesem Abschnitt wird das Konzept der Ausfalltoleranz eingeführt. Daneben werden die von der Sun StorEdge Availability Suite-Software verwendeten Datenreplikationsmethoden beschrieben

Was ist Ausfalltoleranz?

Unter Ausfalltoleranz wird die Fähigkeit eines Systems verstanden, eine Anwendung bei Ausfall des Primär-Clusters auf einem anderen Cluster wiederherzustellen. Grundlage der Ausfalltoleranz sind Datenreplikation und Failover.

Unter Datenreplikation wird das Kopieren von Daten von einem primären Cluster auf einen Sicherungs- oder sekundären Cluster verstanden Dank der Datenreplikation verfügt der sekundäre Cluster über eine aktuelle Kopie der Daten des primären Clusters. Der sekundäre Cluster kann sich weit entfernt vom primären Cluster befinden.

Unter Failover wird die automatische Verschiebung einer Ressourcen- oder Gerätegruppe von einem primären Cluster auf einen sekundären Cluster verstanden. Bei einem Ausfall des primären Clusters stehen die Daten sofort auf dem sekundären Cluster zur Verfügung.

Datenreplikationsmethoden der Sun StorEdge Availability Suite-Software

In diesem Abschnitt werden die von der Sun StorEdge Availability Suite-Software verwendeten Replikationsmethoden beschrieben, die Replikation mit remotem Spiegel und die Schnappschuss-Kopie. Diese Software verwendet die Befehle sndradm(1RPC) und iiadm(1II) zur Datenreplikation. Weitere Informationen zu diesen Befehlen finden Sie in folgenden Handbüchern:

Replikation mit remotem Spiegel

Die Replikation mit remotem Spiegel wird in Abbildung 6–1 veranschaulicht. Daten vom Master-Datenträger der primären Platte werden auf den Master-Datenträger der sekundären Platte über eine TCP/IP-Verbindung repliziert. Ein remotes Spiegel-Bitmap verfolgt die Unterschiede zwischen dem Master-Datenträger auf der primären Platte und dem Master-Datenträger auf der sekundären Platte.

Abbildung 6–1 Replikation mit remotem Spiegel

Die Abbildung zeigt die Replikation mit remotem Spiegel vom Master-Datenträger der primären Platte auf den Master-Datenträger der sekundären Platte.

Die Replikation mit remotem Spiegel kann synchron in Echtzeit oder asynchron erfolgen. Jeder Datenträgersatz im Cluster kann einzeln für synchrone oder asynchrone Replikation konfiguriert werden.

Schnappschuss-Kopie

Der punktuelle Schnappschuss ist in Abbildung 6–2 dargestellt. Die Daten auf dem Master-Datenträger jeder Platte wird auf den Schattendatenträger derselben Platte kopiert. Das punktuelle Bitmap verfolgt die Unterschiede zwischen dem Master-Datenträger und dem Schattendatenträger. Das punktuelle Bitmap wird beim Kopieren der Daten auf den Schattendatenträger zurückgesetzt.

Abbildung 6–2 Schnappschuss-Kopie

Die Abbildung zeigt eine Schnappschuss-Kopie.

Replikation in der Beispielkonfiguration

Folgende Abbildung zeigt die Verwendung der Replikation mit remotem Spiegel und des punktuellen Schnappschusses in dieser Beispielkonfiguration.

Abbildung 6–3 Replikation in der Beispielkonfiguration

Die Abbildung zeigt die Verwendung der Replikation mit remotem Spiegel und des punktuellen Schnappschusses in der Beispielkonfiguration.

Richtlinien für die Konfiguration der Datenreplikation

Dieser Abschnitt enthält Richtlinien für die Konfiguration der Datenreplikation zwischen Clustern. Der Abschnitt enthält auch Tipps zum Konfigurieren der Replikations- und Anwendungs-Ressourcengruppen. Verwenden Sie diese Richtlinien beim Konfigurieren der Datenreplikation für Ihren Cluster.

In diesem Abschnitt werden folgende Themen behandelt:

Konfigurieren von Replikations-Ressourcengruppen

Replikations-Ressourcengruppen stellen die Gerätegruppe unter die Steuerung durch die Sun StorEdge Availability Suite-Software mit der Ressource "logischer Hostname". Eine Replikations-Ressourcengruppe muss folgende Merkmale aufweisen:

Konfigurieren von Anwendungs-Ressourcengruppen

Damit eine Anwendung hoch verfügbar ist, muss sie als Ressource in einer Anwendungs-Ressourcengruppe verwaltet werden. Eine Anwendungs-Ressourcengruppe kann für eine Failover- oder eine Scalable-Anwendung konfiguriert werden.

Anwendungs-Ressourcen und Anwendungs-Ressourcengruppen, die auf dem primären Cluster konfiguriert sind, müssen auch auf dem sekundären Cluster konfiguriert sein. Auch die Daten, auf die die Anwendungsressource zugreift, müssen auf den sekundären Cluster repliziert werden.

Dieser Abschnitt enthält Richtlinien zum Konfigurieren der folgenden Anwendungs-Ressourcengruppen:

Konfigurieren von Ressourcengruppen für eine Failover-Anwendung

In einer Failover-Anwendung wird eine Anwendung immer nur auf einem Knoten ausgeführt. Fällt dieser Knoten aus, wird die Anwendung in einem Failover auf einen anderen Knoten in demselben Cluster verschoben. Eine Ressourcengruppe muss für eine Failover-Anwendung folgende Merkmale aufweisen:

Die folgende Abbildung zeigt die Konfiguration einer Anwendungs-Ressourcengruppe und einer Replikations-Ressourcengruppe in einer Failover-Anwendung.

Abbildung 6–4 Konfiguration von Ressourcengruppen in einer Failover-Anwendung

Die Abbildung zeigt die Konfiguration einer Anwendungs-Ressourcengruppe und einer Replikations-Ressourcengruppe in einer Failover-Anwendung.

Konfigurieren von Ressourcengruppen für eine Scalable-Anwendung

In einer Scalable-Anwendung wird eine Anwendung auf mehreren Knoten ausgeführt, um einen einzelnen logischen Dienst bereitzustellen. Wenn ein Knoten mit einer Scalable-Anwendung ausfällt, tritt kein Failover ein. Die Anwendung wird auf den anderen Knoten weiterhin ausgeführt.

Wenn eine Scalable-Anwendung als eine Ressource in einer Anwendungs-Ressourcengruppe verwaltet wird, muss die Anwendungs-Ressourcengruppe der Gerätegruppe nicht zugeordnet werden. Daher ist auch die Erstellung einer HAStoragePlus-Ressource für die Anwendungs-Ressourcengruppe nicht notwendig.

Eine Ressourcengruppe muss für eine Scalable-Anwendung folgende Merkmale aufweisen:

Die folgende Abbildung zeigt die Konfiguration der Ressourcengruppen in einer Scalable-Anwendung.

Abbildung 6–5 Konfiguration von Ressourcengruppen in einer Scalable-Anwendung

Die Abbildung zeigt die Konfiguration einer Ressourcengruppe in einer Scalable-Anwendung.

Richtlinien zum Verwalten eines Failover oder Switchover

Bei einem Ausfall des primären Clusters muss die Anwendung so schnell wie möglich auf den sekundären Cluster umgeschaltet werden. Damit der sekundäre Cluster zum primären Cluster wird, muss das DNS aktualisiert werden.

Das DNS ordnet einem Client den logischen Hostnamen einer Anwendung zu. Nach einem Failover oder Switchover muss die DNS-Zuordnung zum primären Cluster entfernt und eine DNS-Zuordnung zum sekundären Cluster erstellt werden. Die folgende Abbildung zeigt, wie das DNS einem Cluster einen Client zuordnet.

Abbildung 6–6 DNS-Zuordnung eines Clients zu einem Cluster

Die Abbildung zeigt, wie das DNS einem Cluster einen Client zuordnet.

Aktualisieren Sie das DNS mit dem nsupdate-Befehl. Informationen finden Sie in der Online-Dokumentation unter nsupdate(1M). Ein Beispiel für die Verwaltung eines Failover oder Switchover finden Sie beispielsweise unter Beispiel für die Verwaltung eines Failovers oder Switchovers .

Nach der Reparatur kann der primäre Cluster wieder online gebracht werden. Führen Sie folgende Schritte durch, um zum ursprünglichen primären Cluster zurückzuschalten:

  1. Synchronisieren Sie den primären Cluster mit dem sekundären Cluster, um sicherzustellen, dass der primäre Datenträger aktuell ist.

  2. Aktualisieren Sie das DNS, so dass die Clients auf die Anwendung auf dem primären Cluster zugreifen können.

Task Map: Beispiel für eine Datenreplikationskonfiguration

In der folgenden Task Map sind die Aufgaben in diesem Beispiel aufgeführt, die angeben, wie die Datenreplikation für eine NFS-Anwendung mithilfe der Sun StorEdge Availability Suite-Software konfiguriert wurde.

Tabelle 6–1 Task Map: Beispiel für eine Datenreplikationskonfiguration

Schritt 

Anweisungen 

1. Verbinden und installieren Sie die Cluster. 

Verbinden und Installieren der Cluster

2. Konfigurieren Sie Plattengerätegruppen, Dateisysteme für die NFS-Anwendung und Ressourcengruppen auf dem primären und sekundären Cluster. 

Beispiel für das Konfigurieren von Geräte- und Ressourcengruppen

3. Aktivieren Sie die Datenreplikation auf dem primären und sekundären Cluster. 

So aktivieren Sie die Replikation im primären Cluster

So aktivieren Sie die Replikation im sekundären Cluster

4. Führen Sie die Datenreplikation durch. 

So führen Sie eine Replikation mit remotem Spiegel durch

So erstellen Sie eine Schnappschuss-Kopie

5. Überprüfen Sie die Konfiguration der Datenreplikation. 

So überprüfen Sie die Richtigkeit der Replikationskonfiguration

Verbinden und Installieren der Cluster

Abbildung 6–7 zeigt die in der Beispielkonfiguration der Cluster-Konfiguration. Der sekundäre Cluster in der Beispielkonfiguration enthält einen Knoten. Es können jedoch auch andere Cluster-Konfigurationen verwendet werden.

Abbildung 6–7 Beispiel für eine Cluster-Konfiguration

Die Abbildung zeigt die Cluster-Konfiguration der Beispielkonfiguration.

Tabelle 6–2 fasst die für die Beispielkonfiguration erforderliche Hardware und Software zusammen. Die Sun Cluster-Software und Datenträger-Manager-Software muss vor der Installation der Sun StorEdge Availability Suite-Software und der Korrekturversionen auf den Cluster-Knoten installiert werden.

Tabelle 6–2 Erforderliche Hardware und Software

Hardware oder Software 

Anforderung 

Knoten-Hardware 

Die Sun StorEdge Availability Suite-Software wird auf allen Servern unterstützt, auf denen Solaris OS ausgeführt wird. 

Informationen zur verwendenden Hardware finden Sie im Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS

Festplattenkapazität 

Ca. 15 MB. 

Solaris OS 

Versionen von Solaris OS, die von der Sun Cluster-Software unterstützt werden. 

Alle Knoten müssen dieselbe Version von Solaris OS verwenden. 

Informationen zur Installation finden Sie unter Installieren der Software .

Sun Cluster-Software 

Sun Cluster 3.1 8/05-Software. 

Informationen zur Installation finden Sie in Kapitel 2, Installieren und Konfigurieren der Sun Cluster-Software.

Datenträger-Manager- Software 

Solstice DiskSuite oder Solaris Volume Manager-Software oder VERITAS Volume Manager-Software (VxVM). 

Alle Knoten müssen dieselbe Version der Datenträger-Manager-Software verwenden. 

Informationen zur Installation finden Sie unter Installieren und Konfigurieren der Software Solstice DiskSuite oder Solaris Volume Manager und SPARC: Installieren und Konfigurieren der Software VxVM .

Sun StorEdge Availability Suite-Software 

Informationen zur Installation der Software finden Sie in den Installationshandbüchern zu Ihrer Version der Sun StorEdge Availability Suite-Software: 

Korrekturversionen der Sun StorEdge Availability Suite-Software 

Informationen zu den neuesten Korrekturversionen finden Sie unter http://www.sunsolve.com.

Beispiel für das Konfigurieren von Geräte- und Ressourcengruppen

In diesem Abschnitt wird beschrieben, wie Plattengeräte- und Ressourcengruppen für eine NFS-Anwendung konfiguriert werden. Weitere Informationen finden Sie unter Konfigurieren von Replikations-Ressourcengruppen und Konfigurieren von Anwendungs-Ressourcengruppen.

Dieses Kapitel umfasst folgende Anweisungen:

In der folgenden Tabelle werden die Namen der Gruppen und Ressourcen genannt, die für die Beispielkonfiguration erstellt wurden.

Tabelle 6–3 Übersicht über die Gruppen und Ressourcen der Beispielkonfiguration

Gruppe oder Ressource 

Name 

Beschreibung 

Plattengerätegruppe 

devicegroup

Die Plattengerätegruppe 

Replikations- Ressourcengruppe und Ressourcen 

devicegroup-stor-rg

Die Replikations-Ressourcengruppe 

lhost-reprg-prim, lhost-reprg-sec

Die logischen Hostnamen für die Replikations-Ressourcengruppe auf dem primären und dem sekundären Cluster. 

devicegroup-stor

Die HAStoragePlus-Ressource für die Replikations-Ressourcengruppe 

Anwendungs- Ressourcengruppe und Ressourcen 

nfs-rg

Die Anwendungs-Ressourcengruppe 

lhost-nfsrg-prim, lhost-nfsrg-sec

Die logischen Hostnamen für die Anwendungs-Ressourcengruppe auf dem primären und dem sekundären Cluster 

nfs-dg-rs

Die HAStoragePlus-Ressource für die Anwendung 

nfs-rs

Die NFS-Ressource 

Mit Ausnahme von devicegroup-stor-rg handelt es sich bei den Gruppen- und Ressourcennamen um Beispielnamen, die nach Bedarf geändert werden können. Die Replikations-Ressourcengruppe muss einen Namen mit dem Format devicegroup-stor-rg aufweisen.

In dieser Beispielkonfiguration wird die VxVM-Software verwendet. Informationen zur Solstice DiskSuite oder Solaris Volume Manager-Software finden Sie in Kapitel 3, Installieren und Konfigurieren der Software Solstice DiskSuite oder Solaris Volume Manager .

Die folgende Abbildung zeigt die in der Plattengerätegruppe erstellten Datenträger.

Abbildung 6–8 Datenträger für die Plattengerätegruppe

Die Abbildung zeigt die in der Plattengerätegruppe erstellten Datenträger.


Hinweis –

Die in diesem Verfahren definierten Datenträger dürfen keine privaten Bereiche für die Festplattenbezeichnung aufweisen, wie zum Beispiel Zylinder 0. Diese Einschränkung wird automatisch von der VxVM-Software verwaltet.


ProcedureSo konfigurieren Sie eine Plattengerätegruppe auf dem primären Cluster

Bevor Sie beginnen

Vergewissern Sie sich, dass Sie folgende Aufgaben ausgeführt haben:

Schritte
  1. Greifen Sie als Superuser auf nodeA zu.

    nodeA ist der erste Knoten des primären Clusters. Einen Hinweis, welcher Knoten nodeA ist, finden Sie in Abbildung 6–7.

  2. Erstellen Sie auf nodeA eine Plattengruppe mit vier Datenträgern: Datenträger 1, vol01 bis Datenträger 4, vol04.

    Iinformationen zur Konfiguration einer Plattengruppe mit der VxVM-Software finden Sie in Kapitel 4, SPARC: Installieren und Konfigurieren von VERITAS Volume Manager.

  3. Konfigurieren Sie die Plattengruppe, um eine Plattengerätegruppe zu erstellen.


    nodeA# /usr/cluster/bin/scconf -a \
    -D type=vxvm,name=devicegroup,nodelist=nodeA:nodeB
    

    Die Plattengerätegruppe wird als devicegroup bezeichnet.

  4. Erstellen Sie das Dateisystem für die Plattengerätegruppe.


    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol01 < /dev/null
    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol02 < /dev/null
    

    Für vol03 bzw. vol04, die als Rohdatenträger installiert sind, ist kein Dateisystem erforderlich.

Nächste Schritte

Wechseln Sie zu So konfigurieren Sie eine Plattengerätegruppe im sekundären Cluster.

ProcedureSo konfigurieren Sie eine Plattengerätegruppe im sekundären Cluster

Bevor Sie beginnen

Vergewissern Sie sich, dass Sie die Schritte unter So konfigurieren Sie eine Plattengerätegruppe auf dem primären Cluster ausgeführt haben.

Schritte
  1. Greifen Sie als Superuser auf nodeC zu.

  2. Erstellen Sie auf nodeC eine Plattengruppe mit vier Datenträgern: Datenträger 1, vol01 bis Datenträger 4, vol04.

  3. Konfigurieren Sie die Plattengruppe, um eine Plattengerätegruppe zu erstellen.


    nodeC# /usr/cluster/bin/scconf -a \
    -D type=vxvm,name=devicegroup,nodelist=nodeC
    

    Die Plattengerätegruppe wird als devicegroup bezeichnet.

  4. Erstellen Sie das Dateisystem für die Plattengerätegruppe.


    nodeC# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol01 < /dev/null
    nodeC# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol02 < /dev/null
    

    Für vol03 bzw. vol04, die als Rohdatenträger installiert sind, ist kein Dateisystem erforderlich.

Nächste Schritte

Wechseln Sie zu So konfigurieren Sie das Dateisystem im primären Cluster für die NFS-Anwendung .

ProcedureSo konfigurieren Sie das Dateisystem im primären Cluster für die NFS-Anwendung

Bevor Sie beginnen

Vergewissern Sie sich, dass Sie die Schritte unter So konfigurieren Sie eine Plattengerätegruppe im sekundären Cluster ausgeführt haben.

Schritte
  1. Erstellen Sie auf nodeA und nodeB ein Einhängepunktverzeichnis für das NFS-Dateisystem.

    Beispiel:


    nodeA# mkdir /global/mountpoint
    
  2. Konfigurieren Sie auf nodeA und nodeB den Master-Datenträger so, dass er automatisch im Einhängepunkt eingehängt wird.

    Fügen Sie der /etc/vfstab-Datei auf nodeA und nodeB folgenden Text hinzu bzw. ersetzen Sie den Text. Der Text darf eine Zeile nicht überschreiten.


    /dev/vx/dsk/devicegroup/vol01 /dev/vx/rdsk/devicegroup/vol01 \
    /global/mountpoint ufs 3 no global,logging

    Einen Hinweis zu den in der Plattengerätegruppe verwendeten Datenträgernamen und Datenträgernummern finden Sie in Abbildung 6–8.

  3. Erstellen Sie auf nodeA einen Datenträger für die Dateisysteminformationen, die vom Sun Cluster HA für NFS-Datendienst verwendet werden.


    nodeA# /usr/sbin/vxassist -g devicegroup make vol05 120m disk1
    

    Datenträger 5, vol05, enthält die Dateisysteminformationen, die vom Sun Cluster HA für NFS-Datendienst verwendet werden.

  4. Synchronisieren Sie die Gerätegruppe mit der Sun Cluster-Software erneut auf nodeA.


    nodeA# /usr/cluster/bin/scconf -c -D name=devicegroup,sync
    
  5. Erstellen Sie auf nodeA das Dateisystem für vol05.


    nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol05
    
  6. Erstellen Sie auf nodeA und nodeB einen Einhängepunkt für vol05.

    Beispiel:


    nodeA# mkdir /global/etc
    
  7. Konfigurieren Sie auf nodeA und nodeB vol05 so, dass er automatisch im Einhängepunkt eingehängt wird.

    Fügen Sie der /etc/vfstab-Datei auf nodeA und nodeB folgenden Text hinzu bzw. ersetzen Sie den Text. Der Text darf eine Zeile nicht überschreiten.


    /dev/vx/dsk/devicegroup/vol05 /dev/vx/rdsk/devicegroup/vol05 \
    /global/etc ufs 3 yes global,logging
  8. Hängen Sie vol05 in nodeA ein.


    nodeA# mount /global/etc
    
  9. Machen Sie vol05 für Remote-Systeme zugänglich.

    1. Erstellen Sie das Verzeichnis /global/etc/SUNW.nfs auf nodeA.


      nodeA# mkdir -p /global/etc/SUNW.nfs
      
    2. Erstellen Sie die Datei /global/etc/SUNW.nfs/dfstab.nfs-rs auf nodeA.


      nodeA# touch /global/etc/SUNW.nfs/dfstab.nfs-rs
      
    3. Fügen Sie der Datei /global/etc/SUNW.nfs/dfstab.nfs-rs auf nodeA folgende Zeile hinzu:


      share -F nfs -o rw -d "HA NFS" /global/mountpoint
      
Nächste Schritte

Wechseln Sie zu So konfigurieren Sie das Dateisystem im sekundären Cluster für die NFS-Anwendung.

ProcedureSo konfigurieren Sie das Dateisystem im sekundären Cluster für die NFS-Anwendung

Bevor Sie beginnen

Vergewissern Sie sich, dass Sie die Schritte unter So konfigurieren Sie das Dateisystem im primären Cluster für die NFS-Anwendung ausgeführt haben.

Schritte
  1. Erstellen Sie auf nodeC ein Einhängepunktverzeichnis für das NFS-Dateisystem..

    Beispiel:


    nodeC# mkdir /global/mountpoint
    
  2. Erstellen Sie auf nodeC den Master-Datenträger so, dass er automatisch im Einhängepunkt eingehängt wird.

    Fügen Sie der Datei /etc/vfstab auf nodeC folgenden Text hinzu bzw. ersetzen Sie den Text Der Text darf eine Zeile nicht überschreiten.


    /dev/vx/dsk/devicegroup/vol01 /dev/vx/rdsk/devicegroup/vol01 \
    /global/mountpoint ufs 3 no global,logging
  3. Erstellen Sie auf nodeC einen Datenträger für die Dateisysteminformationen, die vom Sun Cluster HA für NFS-Datendienst verwendet werden.


    nodeC# /usr/sbin/vxassist -g devicegroup make vol05 120m disk1
    

    Datenträger 5, vol05, enthält die Dateisysteminformationen, die vom Sun Cluster HA für NFS-Datendienst verwendet werden.

  4. Synchronisieren Sie auf nodeC die Gerätegruppe mit der Sun Cluster-Software erneut.


    nodeC# /usr/cluster/bin/scconf -c -D name=devicegroup,sync
    
  5. Erstellen Sie auf nodeC das Dateisystem für vol05.


    nodeC# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol05
    
  6. Erstellen Sie auf nodeC einen Einhängepunkt für vol05.

    Beispiel:


    nodeC# mkdir /global/etc
    
  7. Konfigurieren Sie auf nodeC vol05 so, dass er automatisch im Einhängepunkt eingehängt wird.

    Fügen Sie der Datei /etc/vfstab auf nodeC folgenden Text hinzu bzw. ersetzen Sie den Text Der Text darf eine Zeile nicht überschreiten.


    /dev/vx/dsk/devicegroup/vol05 /dev/vx/rdsk/devicegroup/vol05 \
    /global/etc ufs 3 yes global,logging
  8. Hängen Sie vol05 innodeC ein.


    nodeC# mount /global/etc
    
  9. Machen Sie vol05 für Remote-Systeme zugänglich.

    1. Erstellen Sie das Verzeichnis /global/etc/SUNW.nfs auf nodeC.


      nodeC# mkdir -p /global/etc/SUNW.nfs
      
    2. Erstellen Sie die Datei /global/etc/SUNW.nfs/dfstab.nfs-rs auf nodeC.


      nodeC# touch /global/etc/SUNW.nfs/dfstab.nfs-rs
      
    3. Fügen Sie der Datei /global/etc/SUNW.nfs/dfstab.nfs-rs auf nodeC folgende Zeile hinzu:


      share -F nfs -o rw -d "HA NFS" /global/mountpoint
      
Nächste Schritte

Wechseln Sie zu So erstellen Sie eine Replikations-Ressourcengruppe auf dem primären Cluster .

ProcedureSo erstellen Sie eine Replikations-Ressourcengruppe auf dem primären Cluster

Bevor Sie beginnen

Vergewissern Sie sich, dass Sie die Schritte unter So konfigurieren Sie das Dateisystem im sekundären Cluster für die NFS-Anwendung ausgeführt haben.

Schritte
  1. Greifen Sie als Superuser auf nodeA zu.

  2. Registrieren Sie SUNW.HAStoragePlus als Ressourcentyp.


    nodeA# /usr/cluster/bin/scrgadm -a -t SUNW.HAStoragePlus
    
  3. Erstellen Sie eine Replikations-Ressourcengruppe für die Plattengerätegruppe.


    nodeA# /usr/cluster/bin/scrgadm -a -g devicegroup-stor-rg -h nodeA,nodeB
    
    devicegroup

    Der Name der Plattengerätegruppe

    devicegroup-stor-rg

    Der Name der Replikations-Ressourcengruppe

    -h nodeA, nodeB

    Gibt die Cluster-Knoten an, die die Replikations-Ressourcengruppe unterstützen können.

  4. Fügen Sie eine SUNW.HAStoragePlus-Ressource zur Replikations-Ressourcengruppe hinzu.


    nodeA# /usr/cluster/bin/scrgadm -a -j devicegroup-stor \
    -g devicegroup-stor-rg -t SUNW.HAStoragePlus \
    -x GlobalDevicePaths=devicegroup \
    -x AffinityOn=True
    
    devicegroup-stor

    Die HAStoragePlus-Ressource für die Replikations-Ressourcengruppe.

    -x GlobalDevicePaths=

    Gibt die Erweiterungseigenschaft an, auf der die Sun StorEdge Availability Suite-Software basiert.

    -x AffinityOn=True

    Gibt an, dass die SUNW.HAStoragePlus-Ressource ein Affinitäts-Switchover für die von -x GlobalDevicePaths= definierten globalen Geräte und Cluster-Dateisysteme durchführen muss. Daher wird bei einem Failover oder Switchover der Replikations-Ressourcengruppe ein Switchover für die Gerätegruppe durchgeführt.

    Weitere Informationen zu diesen Erweiterungseigenschaften finden Sie in der Online-Dokumentation unter SUNW.HAStoragePlus(5).

  5. Fügen Sie der Replikations-Ressourcengruppe eine Ressource logischer Hostname hinzu.


    nodeA# /usr/cluster/bin/scrgadm -a -L -j lhost-reprg-prim \
    -g devicegroup-stor-rg -l lhost-reprg-prim
    

    lhost-reprg-prim ist der logische Hostname für die Replikations-Ressourcengruppe im primären Cluster.

  6. Aktivieren Sie die Ressourcen, verwalten Sie die Ressourcengruppe und bringen Sie die Ressourcengruppe online.


    nodeA# /usr/cluster/bin/scswitch -Z -g devicegroup-stor-rg
    nodeA# /usr/cluster/bin/scswitch -z -g devicegroup-stor-rg -h nodeA
    
  7. Überprüfen Sie, ob die Ressourcengruppe online ist.


    nodeA# /usr/cluster/bin/scstat -g
    

    Prüfen Sie das Statusfeld der Ressourcengruppe, um zu bestätigen, dass die Replikations-Ressourcengruppe auf nodeA online ist.

Nächste Schritte

Wechseln Sie zu So erstellen Sie eine Replikations-Ressourcengruppe im sekundären Cluster.

ProcedureSo erstellen Sie eine Replikations-Ressourcengruppe im sekundären Cluster

Bevor Sie beginnen

Vergewissern Sie sich, dass Sie die Schritte unter So erstellen Sie eine Replikations-Ressourcengruppe auf dem primären Cluster ausgeführt haben.

Schritte
  1. Greifen Sie als Superuser auf nodeC zu.

  2. Registrieren Sie SUNW.HAStoragePlus als Ressourcentyp.


    nodeC# /usr/cluster/bin/scrgadm -a -t SUNW.HAStoragePlus
    
  3. Erstellen Sie eine Replikations-Ressourcengruppe für die Plattengerätegruppe.


    nodeC# /usr/cluster/bin/scrgadm -a -g devicegroup-stor-rg -h nodeC
    
    devicegroup

    Der Name der Plattengerätegruppe

    devicegroup-stor-rg

    Der Name der Replikations-Ressourcengruppe

    -h nodeC

    Gibt den Cluster-Knoten an, der die Replikations-Ressourcengruppe unterstützen können.

  4. Fügen Sie eine SUNW.HAStoragePlus-Ressource zur Replikations-Ressourcengruppe hinzu.


    nodeC# /usr/cluster/bin/scrgadm -a -j devicegroup-stor \
    -g devicegroup-stor-rg -t SUNW.HAStoragePlus \
    -x GlobalDevicePaths=devicegroup \
    -x AffinityOn=True
    
    devicegroup-stor

    Die HAStoragePlus-Ressource für die Replikations-Ressourcengruppe.

    -x GlobalDevicePaths=

    Gibt die Erweiterungseigenschaft an, auf der die Sun StorEdge Availability Suite-Software basiert.

    -x AffinityOn=True

    Gibt an, dass die SUNW.HAStoragePlus-Ressource ein Affinitäts-Switchover für die von -x GlobalDevicePaths= definierten globalen Geräte und Cluster-Dateisysteme durchführen muss. Daher wird bei einem Failover oder Switchover der Replikations-Ressourcengruppe ein Switchover für die Gerätegruppe durchgeführt.

    Weitere Informationen zu diesen Erweiterungseigenschaften finden Sie in der Online-Dokumentation unter SUNW.HAStoragePlus(5).

  5. Fügen Sie der Replikations-Ressourcengruppe eine Ressource logischer Hostname hinzu.


    nodeC# /usr/cluster/bin/scrgadm -a -L -j lhost-reprg-sec \
    -g devicegroup-stor-rg -l lhost-reprg-sec
    

    lhost-reprg-sec ist der logische Hostname für die Replikations-Ressourcengruppe im primären Cluster.

  6. Aktivieren Sie die Ressourcen, verwalten Sie die Ressourcengruppe und bringen Sie die Ressourcengruppe online.


    nodeC# /usr/cluster/bin/scswitch -Z -g devicegroup-stor-rg
    
  7. Überprüfen Sie, ob die Ressourcengruppe online ist.


    nodeC# /usr/cluster/bin/scstat -g
    

    Prüfen Sie das Statusfeld der Ressourcengruppe, um zu bestätigen, dass die Replikations-Ressourcengruppe auf nodeC online ist.

Nächste Schritte

Wechseln Sie zu So erstellen Sie eine Ressourcengruppe für die NFS-Anwendung im primären Cluster .

ProcedureSo erstellen Sie eine Ressourcengruppe für die NFS-Anwendung im primären Cluster

Dieses Verfahren beschreibt die Erstellung von Anwendungs-Ressourcengruppen für NFS. Dieses Verfahren gilt speziell für diese Anwendung und kann nicht für einen anderen Anwendungstyp verwendet werden.

Bevor Sie beginnen

Vergewissern Sie sich, dass Sie die Schritte unter So erstellen Sie eine Replikations-Ressourcengruppe im sekundären Cluster ausgeführt haben.

Schritte
  1. Greifen Sie als Superuser auf nodeA zu.

  2. Registrieren Sie SUNW.nfs als Ressourcentyp.


    nodeA# scrgadm -a -t SUNW.nfs
    
  3. Sollte SUNW.HAStoragePlus noch nicht als Ressourcentyp registriert sein, führen Sie die Registrierung jetzt aus.


    nodeA# scrgadm -a -t SUNW.HAStoragePlus
    
  4. Erstellen Sie eine Anwendungs-Ressourcengruppe für devicegroup.


    nodeA# scrgadm -a -g nfs-rg \
    -y Pathprefix=/global/etc \
    -y Auto_start_on_new_cluster=False \
    -y RG_dependencies=devicegroup-stor-rg
    
    nfs-rg

    Der Name der Anwendungs-Ressourcengruppe

    Pathprefix=/global/etc

    Gibt ein Verzeichnis an, in das die Ressourcen in der Gruppe Verwaltungsdateien schreiben können.

    Auto_start_on_new_cluster=False

    Gibt an, dass die Anwendungs-Ressourcengruppe nicht automatisch gestartet wird.

    RG_dependencies=devicegroup-stor-rg

    Gibt die Ressourcengruppen an, von denen die Anwendungs-Ressourcengruppe abhängt. In diesem Beispiel hängt die Anwendungs-Ressourcengruppe von der Replikations-Ressourcengruppe ab.

    Wenn die Anwendungs-Ressourcengruppe auf den neuen Primärknoten umgeschaltet wird, wird die Replikations-Ressourcengruppe automatisch umgeschaltet. Wenn jedoch die Replikations-Ressourcengruppe auf den neuen Primärknoten umgeschaltet wird, muss die Anwendungs-Ressourcengruppe manuell umgeschaltet werden.

  5. Fügen Sie eine SUNW.HAStoragePlus-Ressource zur Anwendungs-Ressourcengruppe hinzu.


    nodeA# scrgadm -a -j nfs-dg-rs -g nfs-rg \
    -t SUNW.HAStoragePlus \
    -x FileSystemMountPoints=/global/mountpoint \
    -x AffinityOn=True
    
    nfs-dg-rs

    Der Name der HAStoragePlus-Ressource für die NFS-Anwendung.

    -x FileSystemMountPoints=/global/

    Gibt an, dass der Einhängepunkt für das Dateisystem global ist.

    -t SUNW.HAStoragePlus

    Gibt an, dass die Ressource vom Typ SUNW.HAStoragePlus ist.

    -x AffinityOn=True

    Gibt an, dass die Anwendungsressource für die von -x GlobalDevicePaths= definierten globalen Geräte und Cluster-Dateisysteme ein Affinitäts-Switchover durchführen muss. Daher wird bei einem Failover oder Switchover der Ressourcengruppe für die zugehörige Gerätegruppe ein Switchover ausgeführt.

    Weitere Informationen zu diesen Erweiterungseigenschaften finden Sie in der Online-Dokumentation unter SUNW.HAStoragePlus(5).

  6. Fügen Sie der Anwendungs-Ressourcengruppe eine Ressource logischer Hostname hinzu.


    nodeA# /usr/cluster/bin/scrgadm -a -L -j lhost-nfsrg-prim -g nfs-rg \
    -l lhost-nfsrg-prim
    

    lhost-nfsrg-prim ist der logische Hostname der Anwendungs-Ressourcengruppe im primären Cluster.

  7. Aktivieren Sie die Ressourcen, verwalten Sie die Anwendungs-Ressourcengruppe und bringen Sie die Anwendungs-Ressourcengruppe online.

    1. Bringen Sie die HAStoragePlus-Ressource für die NFS-Anwendung online.


      nodeA# /usr/cluster/bin/scrgadm -a -g nfs-rg \
      -j nfs-rs -t SUNW.nfs -y Resource_dependencies=nfs-dg-rs
      
    2. Bringen Sie die Anwendungs-Ressourcengruppe auf nodeA online.


      nodeA# /usr/cluster/bin/scswitch -Z -g nfs-rg
      nodeA# /usr/cluster/bin/scswitch -z -g nfs-rg -h nodeA
      
  8. Überprüfen Sie, ob die Anwendungs-Ressourcengruppe online ist.


    nodeA# /usr/cluster/bin/scstat -g
    

    Prüfen Sie das Statusfeld der Ressourcengruppe, um zu ermitteln, ob die Anwendungs-Ressourcengruppe für nodeA und nodeB online ist.

Nächste Schritte

Wechseln Sie zu So erstellen Sie eine Ressourcengruppe für die NFS-Anwendung im sekundären Cluster.

ProcedureSo erstellen Sie eine Ressourcengruppe für die NFS-Anwendung im sekundären Cluster

Bevor Sie beginnen

Vergewissern Sie sich, dass Sie die Schritte unter So erstellen Sie eine Ressourcengruppe für die NFS-Anwendung im primären Cluster ausgeführt haben.

Schritte
  1. Greifen Sie als Superuser auf nodeC zu.

  2. Registrieren Sie SUNW.nfs als Ressourcentyp.


    nodeC# scrgadm -a -t SUNW.nfs
    
  3. Sollte SUNW.HAStoragePlus noch nicht als Ressourcentyp registriert sein, führen Sie die Registrierung jetzt aus.


    nodeC# scrgadm -a -t SUNW.HAStoragePlus
    
  4. Erstellen Sie eine Anwendungs-Ressourcengruppe für devicegroup.


    nodeC# scrgadm -a -g nfs-rg \
    -y Pathprefix=/global/etc \
    -y Auto_start_on_new_cluster=False \
    -y RG_dependencies=devicegroup-stor-rg
    
    nfs-rg

    Der Name der Anwendungs-Ressourcengruppe

    Pathprefix=/global/etc

    Gibt ein Verzeichnis an, in das die Ressourcen in der Gruppe Verwaltungsdateien schreiben können.

    Auto_start_on_new_cluster=False

    Gibt an, dass die Anwendungs-Ressourcengruppe nicht automatisch gestartet wird.

    RG_dependencies=devicegroup-stor-rg

    Gibt die Ressourcengruppen an, von denen die Anwendungs-Ressourcengruppe abhängt. In diesem Beispiel hängt die Anwendungs-Ressourcengruppe von der Replikations-Ressourcengruppe ab.

    Wenn die Anwendungs-Ressourcengruppe auf den neuen Primärknoten umgeschaltet wird, wird die Replikations-Ressourcengruppe automatisch umgeschaltet. Wenn jedoch die Replikations-Ressourcengruppe auf den neuen Primärknoten umgeschaltet wird, muss die Anwendungs-Ressourcengruppe manuell umgeschaltet werden.

  5. Fügen Sie eine SUNW.HAStoragePlus-Ressource zur Anwendungs-Ressourcengruppe hinzu.


    nodeC# scrgadm -a -j nfs-dg-rs -g nfs-rg \
    -t SUNW.HAStoragePlus \
    -x FileSystemMountPoints=/global/mountpoint \
    -x AffinityOn=True
    
    nfs-dg-rs

    Der Name der HAStoragePlus-Ressource für die NFS-Anwendung.

    -x FileSystemMountPoints=/global/

    Gibt an, dass der Einhängepunkt für das Dateisystem global ist.

    -t SUNW.HAStoragePlus

    Gibt an, dass die Ressource vom Typ SUNW.HAStoragePlus ist.

    -x AffinityOn=True

    Gibt an, dass die Anwendungsressource für die von -x GlobalDevicePaths= definierten globalen Geräte und Cluster-Dateisysteme ein Affinitäts-Switchover durchführen muss. Daher wird bei einem Failover oder Switchover der Ressourcengruppe für die zugehörige Gerätegruppe ein Switchover ausgeführt.

    Weitere Informationen zu diesen Erweiterungseigenschaften finden Sie in der Online-Dokumentation unter SUNW.HAStoragePlus(5).

  6. Fügen Sie der Anwendungs-Ressourcengruppe eine Ressource logischer Hostname hinzu.


    nodeC# /usr/cluster/bin/scrgadm -a -L -j lhost-nfsrg-sec -g nfs-rg \
    -l lhost-nfsrg-sec
    

    lhost-nfsrg-sec ist der logische Hostname der Anwendungs-Ressourcengruppe im sekundären Cluster.

  7. Fügen Sie eine NFS-Ressource zur Anwendungs-Ressourcengruppe hinzu.


    nodeC# /usr/cluster/bin/scrgadm -a -g nfs-rg \
    -j nfs-rs -t SUNW.nfs -y Resource_dependencies=nfs-dg-rs
    
  8. Stellen Sie sicher, dass die Anwendungs-Ressourcengruppe nicht auf nodeC online gebracht wird.


    nodeC# /usr/cluster/bin/scswitch -n -j nfs-rs
    nodeC# /usr/cluster/bin/scswitch -n -j nfs-dg-rs
    nodeC# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-sec
    nodeC# /usr/cluster/bin/scswitch -z -g nfs-rg -h ""
    

    Die Ressourcengruppe bleibt nach dem Neubooten offline, weil Auto_start_on_new_cluster=False.

  9. Wenn der globale Datenträger im primären Cluster eingehängt ist, hängen Sie ihn aus dem sekundären Cluster aus.


    nodeC# umount /global/mountpoint
    

    Wenn der Datenträger im sekundären Cluster eingehängt ist, schlägt die Synchronisierung fehl.

Nächste Schritte

Wechseln Sie zu Beispiel für das Aktivieren der Datenreplikation

Beispiel für das Aktivieren der Datenreplikation

In diesem Abschnitt wird die Aktivierung der Datenreplikation für die Beispielkonfiguration beschrieben. In diesem Abschnitt werden die Befehle sndradm und iiadm der Sun StorEdge Availability Suite-Software verwendet. Weitere Informationen zu diesen Befehlen finden Sie im Sun Cluster 3.0 and Sun StorEdge Software Integration Guide.

Dieses Kapitel umfasst folgende Anweisungen:

ProcedureSo aktivieren Sie die Replikation im primären Cluster

Schritte
  1. Greifen Sie als Superuser auf nodeA zu.

  2. Löschen Sie alle Transaktionen.


    nodeA# /usr/sbin/lockfs -a -f
    
  3. Bestätigen Sie, dass die logischen Hostnamen lhost-reprg-prim und lhost-reprg-sec online gebracht wurden.


    nodeA# /usr/cluster/bin/scstat -g
    nodeC# /usr/cluster/bin/scstat -g
    

    Prüfen Sie das Statusfeld der Ressourcengruppe.

  4. Aktivieren Sie die Replikation mit remotem Spiegel vom primären Cluster auf den sekundären Cluster.

    Mit diesem Schritt wird die Replikation vom Master-Datenträger des primären Clusters auf den Master-Datenträger des sekundären Clusters aktiviert. Des Weiteren aktiviert dieser Schritt auch die Replikation auf das remote Spiegel-Bitmap auf vol04.

    • Wenn der primäre und sekundäre Cluster nicht synchronisiert sind, führen Sie diesen Befehl aus:


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 ip sync
      
    • Wenn der primäre und sekundäre Cluster synchronisiert sind, führen Sie diesen Befehl aus:


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -E lhost-reprg-prim \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 ip sync
      
  5. Aktivieren Sie die Auto-Synchronisierung.


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -a on lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    

    Mit diesem Schritt wird die Auto-Synchronisierung aktiviert. Wenn der aktive Zustand der Auto-Synchronisierung auf on eingestellt ist, werden die Datenträgersätze neu synchronisiert, sollte das System neu booten oder ein Fehler auftreten.

  6. Überprüfen Sie, ob sich der Cluster im Protokollierungsmodus befindet.


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -P
    

    Die Ausgabe sollte der folgenden ähneln:


    /dev/vx/rdsk/devicegroup/vol01 ->
    lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01
    autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
    devicegroup, state: logging

    Im Protokollierungsmodus lautet der Zustand logging und der aktive Zustand der Auto-Synchronisierung off. Wenn der Daten-Datenträger auf der Platte beschrieben wird, wird die Bitmap-Datei auf derselben Platte aktualisiert.

  7. Aktivieren Sie die Schnappschuss-Kopie.


    nodeA# /usr/opt/SUNWesm/sbin/iiadm -e ind \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol02 \
    /dev/vx/rdsk/devicegroup/vol03
    nodeA# /usr/opt/SUNWesm/sbin/iiadm -w \
    /dev/vx/rdsk/devicegroup/vol02
    

    Mit diesem Schritt wird das Kopieren des Master-Datenträgers des primären Clusters auf den Schattendatenträger desselben Clusters aktiviert. Der Master-Datenträger, der Schattendatenträger und der punktuelle Bitmap-Datenträger müssen sich in derselben Gerätegruppe befinden. In diesem Beispiel ist der Master-Datenträger vol01, tder Schattendatenträger vol02 und der punktuelle Bitmap-Datenträger vol03.

  8. Hängen Sie die Schnappschuss-Kopie an den remoten Spiegelsatz an.


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -I a \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol02 \
    /dev/vx/rdsk/devicegroup/vol03
    

    In diesem Schritt wird die Schnappschuss-Kopie dem remoten Spiegel-Datenträgersatz zugeordnet. Die Sun StorEdge Availability Suite-Software stellt sicher, dass vor der Replikation mit remotem Spiegel ein punktueller Schnappschuss erstellt wird.

Nächste Schritte

Wechseln Sie zu So aktivieren Sie die Replikation im sekundären Cluster.

ProcedureSo aktivieren Sie die Replikation im sekundären Cluster

Bevor Sie beginnen

Vergewissern Sie sich, dass Sie die Schritte unter So aktivieren Sie die Replikation im primären Cluster ausgeführt haben.

Schritte
  1. Greifen Sie als Superuser auf nodeC zu.

  2. Löschen Sie alle Transaktionen.


    nodeC# /usr/sbin/lockfs -a -f
    
  3. Aktivieren Sie die Replikation mit remotem Spiegel vom primären Cluster auf den sekundären Cluster.


    nodeC# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    

    Der primäre Cluster erkennt die Anwesenheit des sekundären Clusters und startet die Synchronisierung. Informationen zum Status der Cluster finden in der Systemprotokolldatei /var/opt/SUNWesm/ds.log.

  4. Aktivieren Sie die unabhängige Schnappschuss-Kopie.


    nodeC# /usr/opt/SUNWesm/sbin/iiadm -e ind \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol02 \
    /dev/vx/rdsk/devicegroup/vol03
    nodeC# /usr/opt/SUNWesm/sbin/iiadm -w \
    /dev/vx/rdsk/devicegroup/vol02
    
  5. Hängen Sie die Schnappschuss-Kopie an den remoten Spiegelsatz an.


    nodeC# /usr/opt/SUNWesm/sbin/sndradm -I a \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol02 \
    /dev/vx/rdsk/devicegroup/vol03
    
Nächste Schritte

Wechseln Sie zu Beispiel für das Durchführen der Datenreplikation .

Beispiel für das Durchführen der Datenreplikation

In diesem Abschnitt wird die Durchführung der Datenreplikation für die Beispielkonfiguration beschrieben. In diesem Abschnitt werden die Befehle sndradm und iiadm der Sun StorEdge Availability Suite-Software verwendet. Weitere Informationen zu diesen Befehlen finden Sie im Sun Cluster 3.0 and Sun StorEdge Software Integration Guide.

Dieses Kapitel umfasst folgende Anweisungen:

ProcedureSo führen Sie eine Replikation mit remotem Spiegel durch

In diesem Verfahren wird der Master-Datenträger der primären Platte auf den Master-Datenträger der sekundären Platte repliziert. Der Master-Datenträger ist vol01 und der punktuelle-Bitmap-Datenträger ist vol04.

Schritte
  1. Greifen Sie als Superuser auf nodeA zu.

  2. Überprüfen Sie, ob sich der Cluster im Protokollierungsmodus befindet.


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -P
    

    Die Ausgabe sollte der folgenden ähneln:


    /dev/vx/rdsk/devicegroup/vol01 ->
    lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01
    autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
    devicegroup, state: logging

    Im Protokollierungsmodus lautet der Zustand logging und der aktive Zustand der Auto-Synchronisierung off. Wenn der Daten-Datenträger auf der Platte beschrieben wird, wird die Bitmap-Datei auf derselben Platte aktualisiert.

  3. Löschen Sie alle Transaktionen.


    nodeA# /usr/sbin/lockfs -a -f
    
  4. Wiederholen Sie Schritt 1 bis Schritt 3 auf nodeC.

  5. Kopieren Sie den Master-Datenträger von nodeA auf den Master-Datenträger von nodeC.


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -m lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    
  6. Warten Sie, bis die Replikation abgeschlossen ist und die Datenträger synchronisiert sind.


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -w lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    
  7. Bestätigen Sie, dass sich der Cluster im Replikationsmodus befindet.


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -P
    

    Die Ausgabe sollte der folgenden ähneln:


    /dev/vx/rdsk/devicegroup/vol01 ->
    lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01
    autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
    devicegroup, state: replicating

    Im Replikationsmodus lautet der Zustand replicating und der aktive Zustand der Auto-Synchronisierung on. Wenn der primäre Datenträger beschrieben wird, wird der sekundäre Datenträger von der Sun StorEdge Availability Suite-Software aktualisiert.

Nächste Schritte

Wechseln Sie zu So erstellen Sie eine Schnappschuss-Kopie .

ProcedureSo erstellen Sie eine Schnappschuss-Kopie

In diesem Verfahren werden der Schattendatenträger und der Master-Datenträger des primären Clusters mithilfe eines punktuellen Schnappschusses synchronisiert. Der Master-Datenträger ist vol01, der Bitmap-Datenträger ist vol04 und der Schattendatenträger ist vol02.

Bevor Sie beginnen

Vergewissern Sie sich, dass Sie die Schritte unter So führen Sie eine Replikation mit remotem Spiegel durch ausgeführt haben.

Schritte
  1. Greifen Sie als Superuser auf nodeA zu.

  2. Deaktivieren Sie die auf nodeA ausgeführte Ressource.


    nodeA# /usr/cluster/bin/scswitch -n -j nfs-rs
    
  3. Bringen Sie den primären Cluster in den Protokollierungsmodus.


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    

    Wenn der Daten-Datenträger auf der Platte beschrieben wird, wird die Bitmap-Datei auf derselben Platte aktualisiert. Es findet keine Replikation statt.

  4. Synchronisieren Sie den Schattendatenträger und den Master-Datenträger des primären Clusters.


    nodeA# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devicegroup/vol02
    nodeA# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devicegroup/vol02
    
  5. Synchronisieren Sie den Schattendatenträger und den Master-Datenträger des sekundären Clusters.


    nodeC# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devicegroup/vol02
    nodeC# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devicegroup/vol02
    
  6. Starten Sie die Anwendung auf nodeA neu.


    nodeA# /usr/cluster/bin/scswitch -e -j nfs-rs
    
  7. Synchronisieren Sie den sekundären Datenträger mit dem primären Datenträger erneut.


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    
Nächste Schritte

Wechseln Sie zu So überprüfen Sie die Richtigkeit der Replikationskonfiguration

ProcedureSo überprüfen Sie die Richtigkeit der Replikationskonfiguration

Bevor Sie beginnen

Vergewissern Sie sich, dass Sie die Schritte unter So erstellen Sie eine Schnappschuss-Kopie ausgeführt haben.

Schritte
  1. Überprüfen Sie, ob sich der primäre Cluster im Replikationsmodus befindet und die Auto-Synchronisierung aktiviert ist.


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -P
    

    Die Ausgabe sollte der folgenden ähneln:


    /dev/vx/rdsk/devicegroup/vol01 ->
    lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01
    autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag:
    devicegroup, state: replicating

    Im Replikationsmodus lautet der Zustand replicating und der aktive Zustand der Auto-Synchronisierung on. Wenn der primäre Datenträger beschrieben wird, wird der sekundäre Datenträger von der Sun StorEdge Availability Suite-Software aktualisiert.

  2. Wenn Sie der primäre Cluster nicht im Replikationsmodus befindet, müssen Sie ihn in diesen Modus versetzen.


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    
  3. Erstellen Sie ein Verzeichnis auf einem Client-Rechner.

    1. Melden Sich sich am Client-Rechner als Superuser an.

      Es wird eine Eingabeaufforderung angezeigt, die der folgenden ähnelt:


      client-machine#
    2. Erstellen Sie ein Verzeichnis auf dem Client-Rechner.


      client-machine# mkdir /dir
      
  4. Hängen Sie das Verzeichnis in die Anwendung im primären Cluster ein und zeigen Sie das eingehängte Verzeichnis an.

    1. Hängen Sie das Verzeichnis in die Anwendung im primären Cluster ein.


      client-machine# mount -o rw lhost-nfsrg-prim:/global/mountpoint /dir
      
    2. Zeigen Sie das eingehängte Verzeichnis an.


      client-machine# ls /dir
      
  5. Hängen Sie das Verzeichnis in die Anwendung im sekundären Cluster ein und zeigen Sie das eingehängte Verzeichnis an.

    1. Hängen Sie das Verzeichnis aus der Anwendung im primären Cluster aus.


      client-machine# umount /dir
      
    2. Nehmen Sie die Anwendungs-Ressourcengruppe im primären Cluster offline.


      nodeA# /usr/cluster/bin/scswitch -n -j nfs-rs
      nodeA# /usr/cluster/bin/scswitch -n -j nfs-dg-rs
      nodeA# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-prim
      nodeA# /usr/cluster/bin/scswitch -z -g nfs-rg -h ""
      
    3. Bringen Sie den primären Cluster in den Protokollierungsmodus.


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 ip sync
      

      Wenn der Daten-Datenträger auf der Platte beschrieben wird, wird die Bitmap-Datei auf derselben Platte aktualisiert. Es findet keine Replikation statt.

    4. Stellen Sie sicher, dass das PathPrefix-Verzeichnis verfügbar ist.


      nodeC# mount | grep /global/etc
      
    5. Bringen Sie die Anwendungs-Ressourcengruppe im sekundären Cluster online.


      nodeC# /usr/cluster/bin/scswitch -Z -g nfs-rg
      
    6. Greifen Sie als Superuser auf den Client-Rechner zu.

      Es wird eine Eingabeaufforderung angezeigt, die der folgenden ähnelt:


      client-machine#
    7. Hängen Sie das in Schritt 3 erstellte Verzeichnis in die Anwendung im sekundären Cluster ein.


      client-machine# mount -o rw lhost-nfsrg-sec:/global/mountpoint /dir
      
    8. Zeigen Sie das eingehängte Verzeichnis an.


      client-machine# ls /dir
      
  6. Stellen Sie sicher, dass das in Schritt 4 angezeigte Verzeichnis mit dem in Schritt 5 identisch ist.

  7. Bringen Sie die Anwendung im primären Cluster zum eingehängten Verzeichnis zurück.

    1. Nehmen Sie die Anwendungs-Ressourcengruppe im sekundären Cluster offline.


      nodeC# /usr/cluster/bin/scswitch -n -j nfs-rs
      nodeC# /usr/cluster/bin/scswitch -n -j nfs-dg-rs
      nodeC# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-sec
      nodeC# /usr/cluster/bin/scswitch -z -g nfs-rg -h ""
      
    2. Stellen Sie sicher, das der globale Datenträger aus dem sekundären Cluster ausgehängt ist.


      nodeC# umount /global/mountpoint
      
    3. Bringen Sie die Anwendungs-Ressourcengruppe im primären Cluster online.


      nodeA# /usr/cluster/bin/scswitch -Z -g nfs-rg
      
    4. Bringen Sie den primären Cluster in den Replikationsmodus.


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
      /dev/vx/rdsk/devicegroup/vol01 \
      /dev/vx/rdsk/devicegroup/vol04 ip sync
      

      Wenn der primäre Datenträger beschrieben wird, wird der sekundäre Datenträger von der Sun StorEdge Availability Suite-Software aktualisiert.

Siehe auch

Beispiel für die Verwaltung eines Failovers oder Switchovers

Beispiel für die Verwaltung eines Failovers oder Switchovers

In diesem Abschnitt wird beschrieben, wie Switchover verursacht und die Anwendung auf einen sekundären Cluster übertragen wird. Nach einem Switchover oder Failover müssen Sie die DNS-Einträge aktualisieren. Weitere Informationen finden Sie unter Richtlinien zum Verwalten eines Failover oder Switchover.

Dieses Kapitel umfasst folgende Anweisungen:

ProcedureSo verursachen Sie ein Switchover

Schritte
  1. Bringen Sie den primären Cluster in den Protokollierungsmodus.


    nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \
    /dev/vx/rdsk/devicegroup/vol01 \
    /dev/vx/rdsk/devicegroup/vol04 ip sync
    

    Wen der Daten-Datenträger auf der Platte beschrieben wird, wird die Bitmap-Datei auf derselben Platte aktualisiert. Es findet keine Replikation statt.

  2. Bestätigen Sie, dass sich sowohl der primäre als auch der sekundäre Cluster im Protokollierungsmodus befinden und die Auto-Synchronisierung deaktiviert ist.

    1. Bestätigen Sie Modus und Einstellung auf nodeA.


      nodeA# /usr/opt/SUNWesm/sbin/sndradm -P
      

      Die Ausgabe sollte der folgenden ähneln:


      /dev/vx/rdsk/devicegroup/vol01 ->
      lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01
      autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag:
      devicegroup, state: logging
    2. Bestätigen Sie Modus und Einstellung auf nodeC.


      nodeC# /usr/opt/SUNWesm/sbin/sndradm -P
      

      Die Ausgabe sollte der folgenden ähneln:


      /dev/vx/rdsk/devicegroup/vol01 <-
      lhost-reprg-prim:/dev/vx/rdsk/devicegroup/vol01
      autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag:
      devicegroup, state: logging

    Für nodeA und nodeC sollte der Zustand logging lauten und der aktive Zustand der Auto-Synchronisierung sollte auf off eingestellt sein.

  3. Bestätigen Sie, dass für den sekundären Cluster ein Takeover vom primären Cluster durchgeführt werden kann.


    nodeC# /usr/sbin/fsck -y /dev/vx/rdsk/devicegroup/vol01
    
  4. Schalten Sie auf den sekundären Cluster um.


    nodeC# scswitch -Z -g nfs-rg
    
Nächste Schritte

Wechseln Sie zu So aktualisieren Sie den DNS-Eintrag .

ProcedureSo aktualisieren Sie den DNS-Eintrag

Die Abbildung einer DNS-Zuordnung zwischen einem Client und einem Cluster finden Sie in Abbildung 6–6.

Bevor Sie beginnen

Vergewissern Sie sich, dass Sie alle Schritte unter So verursachen Sie ein Switchover ausgeführt haben.

Schritte
  1. Starten Sie den nsupdate-Befehl.

    Informationen finden Sie in der Online-Dokumentation unter nsupdate(1M).

  2. Entfernen Sie bei beiden Clustern die aktuelle DNS-Zuordnung zwischen dem logischen Hostnamen der Anwendungs-Ressourcengruppe und der Cluster-IP-Adresse.


    > update delete lhost-nfsrg-prim A
    > update delete lhost-nfsrg-sec A
    > update delete ipaddress1rev.in-addr.arpa ttl PTR lhost-nfsrg-prim
    > update delete ipaddress2rev.in-addr.arpa ttl PTR lhost-nfsrg-sec
    
    ipaddress1rev

    Die IP-Adresse des primären Clusters, in umgekehrter Reihenfolge.

    ipaddress2rev

    Die IP-Adresse des sekundären Clusters, in umgekehrter Reihenfolge.

    ttl

    Die Lebensdauer in Sekunden Ein typischer Wert ist 3600.

  3. Erstellen Sie bei beiden Clustern eine neue DNS-Zuordnung zwischen dem logischen Hostnamen der Anwendungs-Ressourcengruppe und der Cluster-IP-Adresse.

    Ordnen Sie den primären logischen Hostnamen der IP-Adresse des sekundären Clusters und den sekundären logischen Hostnamen der IP-Adresse des primären Clusters zu.


    > update add lhost-nfsrg-prim ttl A ipaddress2fwd
    > update add lhost-nfsrg-sec ttl A ipaddress1fwd
    > update add ipaddress2rev.in-addr.arpa ttl PTR lhost-nfsrg-prim
    > update add ipaddress1rev.in-addr.arpa ttl PTR lhost-nfsrg-sec
    
    ipaddress2fwd

    Die IP-Adresse des sekundären Clusters, in fortlaufender Reihenfolge.

    ipaddress1fwd

    Die IP-Adresse des primären Clusters, in fortlaufender Reihenfolge.

    ipaddress2rev

    Die IP-Adresse des sekundären Clusters, in umgekehrter Reihenfolge.

    ipaddress1rev

    Die IP-Adresse des primären Clusters, in umgekehrter Reihenfolge.