Dieses Kabitel bietet Richtlinien für die Konfiguration der Datenreplikation zwischen Clustern durch Verwendung der Software Sun StorEdge Availability Suite 3.1 oder 3.2.
Des Weiteren wird anhand eines Beispiels dargestellt, wie die Datenreplikation für eine NFS-Anwendung mithilfe der Sun StorEdge Availability Suite-Software konfiguriert wurde. In diesem Beispiel wird eine spezifische Cluster-Konfiguration verwendet. Zudem werden detaillierte Informationen zur Durchführung einzelner Aufgaben bereitgestellt. Die für sonstige Anwendungen oder Cluster-Konfigurationen erforderlichen Schritte werden jedoch nicht aufgeführt.
Dieses Kapitel enthält die folgenden Abschnitte:
Beispiel für das Konfigurieren von Geräte- und Ressourcengruppen
Beispiel für die Verwaltung eines Failovers oder Switchovers
In diesem Abschnitt wird das Konzept der Ausfalltoleranz eingeführt. Daneben werden die von der Sun StorEdge Availability Suite-Software verwendeten Datenreplikationsmethoden beschrieben
Unter Ausfalltoleranz wird die Fähigkeit eines Systems verstanden, eine Anwendung bei Ausfall des Primär-Clusters auf einem anderen Cluster wiederherzustellen. Grundlage der Ausfalltoleranz sind Datenreplikation und Failover.
Unter Datenreplikation wird das Kopieren von Daten von einem primären Cluster auf einen Sicherungs- oder sekundären Cluster verstanden Dank der Datenreplikation verfügt der sekundäre Cluster über eine aktuelle Kopie der Daten des primären Clusters. Der sekundäre Cluster kann sich weit entfernt vom primären Cluster befinden.
Unter Failover wird die automatische Verschiebung einer Ressourcen- oder Gerätegruppe von einem primären Cluster auf einen sekundären Cluster verstanden. Bei einem Ausfall des primären Clusters stehen die Daten sofort auf dem sekundären Cluster zur Verfügung.
In diesem Abschnitt werden die von der Sun StorEdge Availability Suite-Software verwendeten Replikationsmethoden beschrieben, die Replikation mit remotem Spiegel und die Schnappschuss-Kopie. Diese Software verwendet die Befehle sndradm(1RPC) und iiadm(1II) zur Datenreplikation. Weitere Informationen zu diesen Befehlen finden Sie in folgenden Handbüchern:
Sun StorEdge Availability Suite 3.1 Software - Sun Cluster 3.0 and Sun StorEdge Software Integration Guide
Sun StorEdge Availability Suite 3.2 Software - Sun Cluster 3.0/3.1 and Sun StorEdge Availability Suite 3.2 Software Integration Guide
Die Replikation mit remotem Spiegel wird in Abbildung 6–1 veranschaulicht. Daten vom Master-Datenträger der primären Platte werden auf den Master-Datenträger der sekundären Platte über eine TCP/IP-Verbindung repliziert. Ein remotes Spiegel-Bitmap verfolgt die Unterschiede zwischen dem Master-Datenträger auf der primären Platte und dem Master-Datenträger auf der sekundären Platte.
Die Replikation mit remotem Spiegel kann synchron in Echtzeit oder asynchron erfolgen. Jeder Datenträgersatz im Cluster kann einzeln für synchrone oder asynchrone Replikation konfiguriert werden.
Bei der synchronen Datenreplikation wird ein Schreibvorgang erst nach der Aktualisierung des remoten Datenträgers als abgeschlossen bestätigt.
Bei der asynchronen Datenreplikation wird ein Schreibvorgang vor der Aktualisierung des remoten Datenträgers als abgeschlossen bestätigt. Die asynchrone Datenreplikation verleiht höhere Flexibilität im Falle großer Distanzen und geringer Bandbreite.
Der punktuelle Schnappschuss ist in Abbildung 6–2 dargestellt. Die Daten auf dem Master-Datenträger jeder Platte wird auf den Schattendatenträger derselben Platte kopiert. Das punktuelle Bitmap verfolgt die Unterschiede zwischen dem Master-Datenträger und dem Schattendatenträger. Das punktuelle Bitmap wird beim Kopieren der Daten auf den Schattendatenträger zurückgesetzt.
Folgende Abbildung zeigt die Verwendung der Replikation mit remotem Spiegel und des punktuellen Schnappschusses in dieser Beispielkonfiguration.
Dieser Abschnitt enthält Richtlinien für die Konfiguration der Datenreplikation zwischen Clustern. Der Abschnitt enthält auch Tipps zum Konfigurieren der Replikations- und Anwendungs-Ressourcengruppen. Verwenden Sie diese Richtlinien beim Konfigurieren der Datenreplikation für Ihren Cluster.
In diesem Abschnitt werden folgende Themen behandelt:
Replikations-Ressourcengruppen stellen die Gerätegruppe unter die Steuerung durch die Sun StorEdge Availability Suite-Software mit der Ressource "logischer Hostname". Eine Replikations-Ressourcengruppe muss folgende Merkmale aufweisen:
Sie muss eine Failover-Ressourcengruppe sein
Eine Failover-Ressource kann nur auf einem Knoten ausgeführt werden. Bei einem Failover ist die Failover-Ressource am Failover beteiligt.
Verwenden einer Ressource vom Typ logischer Hostname
Der logische Hostname muss vom primären Cluster gehostet werden. Nach einem Failover oder einem Switchover muss der logische Hostname vom sekundären Cluster gehostet werden. Das Domain Name System (DNS) wird zum Zuordnen des logischen Hostnamens zu einem Cluster verwendet.
Sie muss eine HAStoragePlus-Ressource aufweisen
Die HAStoragePlus-Ressource erzwingt im Falle eines Failover oder Switchover der Replikations-Ressourcengruppe das Switchover der Gerätegruppe. Die Sun Cluster-Software erzwingt bei einem Switchover der Gerätegruppe auch das Switchover der Replikations-Ressourcengruppe. Auf diese Weise sind die Replikations-Ressourcengruppe und die Gerätegruppe immer demselben Knoten zugewiesen bzw. werden immer von demselben Knoten unterstützt.
Die folgenden Erweiterungseigenschaften müssen in der HAStoragePlus-Ressource definiert sein:
GlobalDevicePaths. Diese Erweiterungseigenschaft definiert die Gerätegruppe, zu der ein Datenträger gehört.
AffinityOn-Eigenschaft = True. Diese Erweiterungseigenschaft veranlasst bei einem Switchover oder Failover der Replikations-Ressourcengruppe das Switchover oder Failover der Gerätegruppe. Diese Funktion wird als Affinitäts-Switchover bezeichnet.
Weitere Informationen zu HAStoragePlus finden Sie in der Online-Dokumentation unter SUNW.HAStoragePlus(5) .
Sie muss nach der Gerätegruppe benannt werden, der sie zugeordnet ist, gefolgt von -stor-rg
Beispiel: devicegroup-stor-rg.
Sowohl der primäre als auch der sekundäre Cluster müssen online sein
Damit eine Anwendung hoch verfügbar ist, muss sie als Ressource in einer Anwendungs-Ressourcengruppe verwaltet werden. Eine Anwendungs-Ressourcengruppe kann für eine Failover- oder eine Scalable-Anwendung konfiguriert werden.
Anwendungs-Ressourcen und Anwendungs-Ressourcengruppen, die auf dem primären Cluster konfiguriert sind, müssen auch auf dem sekundären Cluster konfiguriert sein. Auch die Daten, auf die die Anwendungsressource zugreift, müssen auf den sekundären Cluster repliziert werden.
Dieser Abschnitt enthält Richtlinien zum Konfigurieren der folgenden Anwendungs-Ressourcengruppen:
Konfigurieren von Ressourcengruppen für eine Failover-Anwendung
Konfigurieren von Ressourcengruppen für eine Scalable-Anwendung
In einer Failover-Anwendung wird eine Anwendung immer nur auf einem Knoten ausgeführt. Fällt dieser Knoten aus, wird die Anwendung in einem Failover auf einen anderen Knoten in demselben Cluster verschoben. Eine Ressourcengruppe muss für eine Failover-Anwendung folgende Merkmale aufweisen:
Mit einer HAStoragePlus-Ressource muss sie bei einem Switchover oder Failover der Anwendungs-Ressourcengruppe das Switchover der Gerätegruppe erzwingen.
Die Gerätegruppe wird der Replikations-Ressourcengruppe und der Anwendungs-Ressourcengruppe zugeordnet. Daher erzwingt das Switchover der Anwendungs-Ressourcengruppe das Switchover der Gerätegruppe und der Replikations-Ressourcengruppe. Die Anwendungs-Ressourcengruppe, die Replikations-Ressourcengruppe und die Gerätegruppe werden von demselben Knoten unterstützt.
Beachten Sie jedoch, dass ein Switchover oder Failover der Gerätegruppe oder der Replikations-Ressourcengruppe kein Switchover oder Failover der Anwendungs-Ressourcengruppe erzwingt.
Wenn die Anwendungsdaten global eingehängt sind, ist das Vorhandensein einer HAStoragePlus-Ressource in der Anwendungs-Ressourcengruppe ratsam, aber nicht zwingend erforderlich.
Wenn die Anwendungsdaten lokal eingehängt sind, ist das Vorhandensein einer HAStoragePlus-Ressource in der Anwendungs-Ressourcengruppe erforderlich.
Ohne eine HAStoragePlus-Ressource löst das Switchover oder Failover der Anwendungs-Ressourcengruppe kein Switchover oder Failover der Replikations-Ressourcengruppe und Gerätegruppe aus. Nach einem Switchover oder Failover werden die Anwendungs-Ressourcengruppe, die Replikations-Ressourcengruppe und die Gerätegruppe nicht von demselben Knoten unterstützt.
Weitere Informationen zu HAStoragePlus finden Sie in der Online-Dokumentation unter SUNW.HAStoragePlus(5) .
Sie muss auf dem primären Cluster online und auf dem sekundären Cluster offline sein.
Die Anwendungs-Ressourcengruppe muss auf dem sekundären Cluster online gebracht werden, wenn der sekundäre Cluster zum primären Cluster wird.
Die folgende Abbildung zeigt die Konfiguration einer Anwendungs-Ressourcengruppe und einer Replikations-Ressourcengruppe in einer Failover-Anwendung.
In einer Scalable-Anwendung wird eine Anwendung auf mehreren Knoten ausgeführt, um einen einzelnen logischen Dienst bereitzustellen. Wenn ein Knoten mit einer Scalable-Anwendung ausfällt, tritt kein Failover ein. Die Anwendung wird auf den anderen Knoten weiterhin ausgeführt.
Wenn eine Scalable-Anwendung als eine Ressource in einer Anwendungs-Ressourcengruppe verwaltet wird, muss die Anwendungs-Ressourcengruppe der Gerätegruppe nicht zugeordnet werden. Daher ist auch die Erstellung einer HAStoragePlus-Ressource für die Anwendungs-Ressourcengruppe nicht notwendig.
Eine Ressourcengruppe muss für eine Scalable-Anwendung folgende Merkmale aufweisen:
Muss eine Abhängigkeit von der gemeinsam genutzten Adressenressourcengruppe aufweisen
Die gemeinsam genutzte Adresse wird von den Knoten verwendet, auf denen die Scalable-Anwendung zum Verteilen eingehender Daten ausgeführt wird.
Sie muss auf dem primären Cluster online und auf dem sekundären Cluster offline sein
Die folgende Abbildung zeigt die Konfiguration der Ressourcengruppen in einer Scalable-Anwendung.
Bei einem Ausfall des primären Clusters muss die Anwendung so schnell wie möglich auf den sekundären Cluster umgeschaltet werden. Damit der sekundäre Cluster zum primären Cluster wird, muss das DNS aktualisiert werden.
Das DNS ordnet einem Client den logischen Hostnamen einer Anwendung zu. Nach einem Failover oder Switchover muss die DNS-Zuordnung zum primären Cluster entfernt und eine DNS-Zuordnung zum sekundären Cluster erstellt werden. Die folgende Abbildung zeigt, wie das DNS einem Cluster einen Client zuordnet.
Aktualisieren Sie das DNS mit dem nsupdate-Befehl. Informationen finden Sie in der Online-Dokumentation unter nsupdate(1M). Ein Beispiel für die Verwaltung eines Failover oder Switchover finden Sie beispielsweise unter Beispiel für die Verwaltung eines Failovers oder Switchovers .
Nach der Reparatur kann der primäre Cluster wieder online gebracht werden. Führen Sie folgende Schritte durch, um zum ursprünglichen primären Cluster zurückzuschalten:
Synchronisieren Sie den primären Cluster mit dem sekundären Cluster, um sicherzustellen, dass der primäre Datenträger aktuell ist.
Aktualisieren Sie das DNS, so dass die Clients auf die Anwendung auf dem primären Cluster zugreifen können.
In der folgenden Task Map sind die Aufgaben in diesem Beispiel aufgeführt, die angeben, wie die Datenreplikation für eine NFS-Anwendung mithilfe der Sun StorEdge Availability Suite-Software konfiguriert wurde.
Tabelle 6–1 Task Map: Beispiel für eine Datenreplikationskonfiguration
Schritt |
Anweisungen |
---|---|
1. Verbinden und installieren Sie die Cluster. | |
2. Konfigurieren Sie Plattengerätegruppen, Dateisysteme für die NFS-Anwendung und Ressourcengruppen auf dem primären und sekundären Cluster. |
Beispiel für das Konfigurieren von Geräte- und Ressourcengruppen |
3. Aktivieren Sie die Datenreplikation auf dem primären und sekundären Cluster. | |
4. Führen Sie die Datenreplikation durch. | |
5. Überprüfen Sie die Konfiguration der Datenreplikation. |
So überprüfen Sie die Richtigkeit der Replikationskonfiguration |
Abbildung 6–7 zeigt die in der Beispielkonfiguration der Cluster-Konfiguration. Der sekundäre Cluster in der Beispielkonfiguration enthält einen Knoten. Es können jedoch auch andere Cluster-Konfigurationen verwendet werden.
Tabelle 6–2 fasst die für die Beispielkonfiguration erforderliche Hardware und Software zusammen. Die Sun Cluster-Software und Datenträger-Manager-Software muss vor der Installation der Sun StorEdge Availability Suite-Software und der Korrekturversionen auf den Cluster-Knoten installiert werden.
Tabelle 6–2 Erforderliche Hardware und Software
Hardware oder Software |
Anforderung |
---|---|
Knoten-Hardware |
Die Sun StorEdge Availability Suite-Software wird auf allen Servern unterstützt, auf denen Solaris OS ausgeführt wird. Informationen zur verwendenden Hardware finden Sie im Sun Cluster 3.0-3.1 Hardware Administration Manual for Solaris OS |
Festplattenkapazität |
Ca. 15 MB. |
Solaris OS |
Versionen von Solaris OS, die von der Sun Cluster-Software unterstützt werden. Alle Knoten müssen dieselbe Version von Solaris OS verwenden. Informationen zur Installation finden Sie unter Installieren der Software . |
Sun Cluster-Software |
Sun Cluster 3.1 8/05-Software. Informationen zur Installation finden Sie in Kapitel 2, Installieren und Konfigurieren der Sun Cluster-Software. |
Datenträger-Manager- Software |
Solstice DiskSuite oder Solaris Volume Manager-Software oder VERITAS Volume Manager-Software (VxVM). Alle Knoten müssen dieselbe Version der Datenträger-Manager-Software verwenden. Informationen zur Installation finden Sie unter Installieren und Konfigurieren der Software Solstice DiskSuite oder Solaris Volume Manager und SPARC: Installieren und Konfigurieren der Software VxVM . |
Sun StorEdge Availability Suite-Software |
Informationen zur Installation der Software finden Sie in den Installationshandbüchern zu Ihrer Version der Sun StorEdge Availability Suite-Software:
|
Korrekturversionen der Sun StorEdge Availability Suite-Software |
Informationen zu den neuesten Korrekturversionen finden Sie unter http://www.sunsolve.com. |
In diesem Abschnitt wird beschrieben, wie Plattengeräte- und Ressourcengruppen für eine NFS-Anwendung konfiguriert werden. Weitere Informationen finden Sie unter Konfigurieren von Replikations-Ressourcengruppen und Konfigurieren von Anwendungs-Ressourcengruppen.
Dieses Kapitel umfasst folgende Anweisungen:
So konfigurieren Sie eine Plattengerätegruppe auf dem primären Cluster
So konfigurieren Sie eine Plattengerätegruppe im sekundären Cluster
So konfigurieren Sie das Dateisystem im primären Cluster für die NFS-Anwendung
So konfigurieren Sie das Dateisystem im sekundären Cluster für die NFS-Anwendung
So erstellen Sie eine Replikations-Ressourcengruppe auf dem primären Cluster
So erstellen Sie eine Replikations-Ressourcengruppe im sekundären Cluster
So erstellen Sie eine Ressourcengruppe für die NFS-Anwendung im primären Cluster
So erstellen Sie eine Ressourcengruppe für die NFS-Anwendung im sekundären Cluster
So überprüfen Sie die Richtigkeit der Replikationskonfiguration
In der folgenden Tabelle werden die Namen der Gruppen und Ressourcen genannt, die für die Beispielkonfiguration erstellt wurden.
Tabelle 6–3 Übersicht über die Gruppen und Ressourcen der Beispielkonfiguration
Gruppe oder Ressource |
Name |
Beschreibung |
---|---|---|
Plattengerätegruppe |
devicegroup |
Die Plattengerätegruppe |
Replikations- Ressourcengruppe und Ressourcen |
devicegroup-stor-rg |
Die Replikations-Ressourcengruppe |
lhost-reprg-prim, lhost-reprg-sec |
Die logischen Hostnamen für die Replikations-Ressourcengruppe auf dem primären und dem sekundären Cluster. |
|
devicegroup-stor |
Die HAStoragePlus-Ressource für die Replikations-Ressourcengruppe |
|
Anwendungs- Ressourcengruppe und Ressourcen |
nfs-rg |
Die Anwendungs-Ressourcengruppe |
lhost-nfsrg-prim, lhost-nfsrg-sec |
Die logischen Hostnamen für die Anwendungs-Ressourcengruppe auf dem primären und dem sekundären Cluster |
|
nfs-dg-rs |
Die HAStoragePlus-Ressource für die Anwendung |
|
nfs-rs |
Die NFS-Ressource |
Mit Ausnahme von devicegroup-stor-rg handelt es sich bei den Gruppen- und Ressourcennamen um Beispielnamen, die nach Bedarf geändert werden können. Die Replikations-Ressourcengruppe muss einen Namen mit dem Format devicegroup-stor-rg aufweisen.
In dieser Beispielkonfiguration wird die VxVM-Software verwendet. Informationen zur Solstice DiskSuite oder Solaris Volume Manager-Software finden Sie in Kapitel 3, Installieren und Konfigurieren der Software Solstice DiskSuite oder Solaris Volume Manager .
Die folgende Abbildung zeigt die in der Plattengerätegruppe erstellten Datenträger.
Die in diesem Verfahren definierten Datenträger dürfen keine privaten Bereiche für die Festplattenbezeichnung aufweisen, wie zum Beispiel Zylinder 0. Diese Einschränkung wird automatisch von der VxVM-Software verwaltet.
Vergewissern Sie sich, dass Sie folgende Aufgaben ausgeführt haben:
Lesen Sie die Richtlinien und Anforderungen in folgenden Abschnitten:
Richten Sie den primären und sekundären Cluster ein wie unter Verbinden und Installieren der Cluster beschrieben.
Greifen Sie als Superuser auf nodeA zu.
nodeA ist der erste Knoten des primären Clusters. Einen Hinweis, welcher Knoten nodeA ist, finden Sie in Abbildung 6–7.
Erstellen Sie auf nodeA eine Plattengruppe mit vier Datenträgern: Datenträger 1, vol01 bis Datenträger 4, vol04.
Iinformationen zur Konfiguration einer Plattengruppe mit der VxVM-Software finden Sie in Kapitel 4, SPARC: Installieren und Konfigurieren von VERITAS Volume Manager.
Konfigurieren Sie die Plattengruppe, um eine Plattengerätegruppe zu erstellen.
nodeA# /usr/cluster/bin/scconf -a \ -D type=vxvm,name=devicegroup,nodelist=nodeA:nodeB |
Die Plattengerätegruppe wird als devicegroup bezeichnet.
Erstellen Sie das Dateisystem für die Plattengerätegruppe.
nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol01 < /dev/null nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol02 < /dev/null |
Für vol03 bzw. vol04, die als Rohdatenträger installiert sind, ist kein Dateisystem erforderlich.
Wechseln Sie zu So konfigurieren Sie eine Plattengerätegruppe im sekundären Cluster.
Vergewissern Sie sich, dass Sie die Schritte unter So konfigurieren Sie eine Plattengerätegruppe auf dem primären Cluster ausgeführt haben.
Greifen Sie als Superuser auf nodeC zu.
Erstellen Sie auf nodeC eine Plattengruppe mit vier Datenträgern: Datenträger 1, vol01 bis Datenträger 4, vol04.
Konfigurieren Sie die Plattengruppe, um eine Plattengerätegruppe zu erstellen.
nodeC# /usr/cluster/bin/scconf -a \ -D type=vxvm,name=devicegroup,nodelist=nodeC |
Die Plattengerätegruppe wird als devicegroup bezeichnet.
Erstellen Sie das Dateisystem für die Plattengerätegruppe.
nodeC# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol01 < /dev/null nodeC# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol02 < /dev/null |
Für vol03 bzw. vol04, die als Rohdatenträger installiert sind, ist kein Dateisystem erforderlich.
Wechseln Sie zu So konfigurieren Sie das Dateisystem im primären Cluster für die NFS-Anwendung .
Vergewissern Sie sich, dass Sie die Schritte unter So konfigurieren Sie eine Plattengerätegruppe im sekundären Cluster ausgeführt haben.
Erstellen Sie auf nodeA und nodeB ein Einhängepunktverzeichnis für das NFS-Dateisystem.
Beispiel:
nodeA# mkdir /global/mountpoint |
Konfigurieren Sie auf nodeA und nodeB den Master-Datenträger so, dass er automatisch im Einhängepunkt eingehängt wird.
Fügen Sie der /etc/vfstab-Datei auf nodeA und nodeB folgenden Text hinzu bzw. ersetzen Sie den Text. Der Text darf eine Zeile nicht überschreiten.
/dev/vx/dsk/devicegroup/vol01 /dev/vx/rdsk/devicegroup/vol01 \ /global/mountpoint ufs 3 no global,logging |
Einen Hinweis zu den in der Plattengerätegruppe verwendeten Datenträgernamen und Datenträgernummern finden Sie in Abbildung 6–8.
Erstellen Sie auf nodeA einen Datenträger für die Dateisysteminformationen, die vom Sun Cluster HA für NFS-Datendienst verwendet werden.
nodeA# /usr/sbin/vxassist -g devicegroup make vol05 120m disk1 |
Datenträger 5, vol05, enthält die Dateisysteminformationen, die vom Sun Cluster HA für NFS-Datendienst verwendet werden.
Synchronisieren Sie die Gerätegruppe mit der Sun Cluster-Software erneut auf nodeA.
nodeA# /usr/cluster/bin/scconf -c -D name=devicegroup,sync |
Erstellen Sie auf nodeA das Dateisystem für vol05.
nodeA# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol05 |
Erstellen Sie auf nodeA und nodeB einen Einhängepunkt für vol05.
Beispiel:
nodeA# mkdir /global/etc |
Konfigurieren Sie auf nodeA und nodeB vol05 so, dass er automatisch im Einhängepunkt eingehängt wird.
Fügen Sie der /etc/vfstab-Datei auf nodeA und nodeB folgenden Text hinzu bzw. ersetzen Sie den Text. Der Text darf eine Zeile nicht überschreiten.
/dev/vx/dsk/devicegroup/vol05 /dev/vx/rdsk/devicegroup/vol05 \ /global/etc ufs 3 yes global,logging |
Hängen Sie vol05 in nodeA ein.
nodeA# mount /global/etc |
Machen Sie vol05 für Remote-Systeme zugänglich.
Erstellen Sie das Verzeichnis /global/etc/SUNW.nfs auf nodeA.
nodeA# mkdir -p /global/etc/SUNW.nfs |
Erstellen Sie die Datei /global/etc/SUNW.nfs/dfstab.nfs-rs auf nodeA.
nodeA# touch /global/etc/SUNW.nfs/dfstab.nfs-rs |
Fügen Sie der Datei /global/etc/SUNW.nfs/dfstab.nfs-rs auf nodeA folgende Zeile hinzu:
share -F nfs -o rw -d "HA NFS" /global/mountpoint |
Wechseln Sie zu So konfigurieren Sie das Dateisystem im sekundären Cluster für die NFS-Anwendung.
Vergewissern Sie sich, dass Sie die Schritte unter So konfigurieren Sie das Dateisystem im primären Cluster für die NFS-Anwendung ausgeführt haben.
Erstellen Sie auf nodeC ein Einhängepunktverzeichnis für das NFS-Dateisystem..
Beispiel:
nodeC# mkdir /global/mountpoint |
Erstellen Sie auf nodeC den Master-Datenträger so, dass er automatisch im Einhängepunkt eingehängt wird.
Fügen Sie der Datei /etc/vfstab auf nodeC folgenden Text hinzu bzw. ersetzen Sie den Text Der Text darf eine Zeile nicht überschreiten.
/dev/vx/dsk/devicegroup/vol01 /dev/vx/rdsk/devicegroup/vol01 \ /global/mountpoint ufs 3 no global,logging |
Erstellen Sie auf nodeC einen Datenträger für die Dateisysteminformationen, die vom Sun Cluster HA für NFS-Datendienst verwendet werden.
nodeC# /usr/sbin/vxassist -g devicegroup make vol05 120m disk1 |
Datenträger 5, vol05, enthält die Dateisysteminformationen, die vom Sun Cluster HA für NFS-Datendienst verwendet werden.
Synchronisieren Sie auf nodeC die Gerätegruppe mit der Sun Cluster-Software erneut.
nodeC# /usr/cluster/bin/scconf -c -D name=devicegroup,sync |
Erstellen Sie auf nodeC das Dateisystem für vol05.
nodeC# /usr/sbin/newfs /dev/vx/rdsk/devicegroup/vol05 |
Erstellen Sie auf nodeC einen Einhängepunkt für vol05.
Beispiel:
nodeC# mkdir /global/etc |
Konfigurieren Sie auf nodeC vol05 so, dass er automatisch im Einhängepunkt eingehängt wird.
Fügen Sie der Datei /etc/vfstab auf nodeC folgenden Text hinzu bzw. ersetzen Sie den Text Der Text darf eine Zeile nicht überschreiten.
/dev/vx/dsk/devicegroup/vol05 /dev/vx/rdsk/devicegroup/vol05 \ /global/etc ufs 3 yes global,logging |
Hängen Sie vol05 innodeC ein.
nodeC# mount /global/etc |
Machen Sie vol05 für Remote-Systeme zugänglich.
Erstellen Sie das Verzeichnis /global/etc/SUNW.nfs auf nodeC.
nodeC# mkdir -p /global/etc/SUNW.nfs |
Erstellen Sie die Datei /global/etc/SUNW.nfs/dfstab.nfs-rs auf nodeC.
nodeC# touch /global/etc/SUNW.nfs/dfstab.nfs-rs |
Fügen Sie der Datei /global/etc/SUNW.nfs/dfstab.nfs-rs auf nodeC folgende Zeile hinzu:
share -F nfs -o rw -d "HA NFS" /global/mountpoint |
Wechseln Sie zu So erstellen Sie eine Replikations-Ressourcengruppe auf dem primären Cluster .
Vergewissern Sie sich, dass Sie die Schritte unter So konfigurieren Sie das Dateisystem im sekundären Cluster für die NFS-Anwendung ausgeführt haben.
Greifen Sie als Superuser auf nodeA zu.
Registrieren Sie SUNW.HAStoragePlus als Ressourcentyp.
nodeA# /usr/cluster/bin/scrgadm -a -t SUNW.HAStoragePlus |
Erstellen Sie eine Replikations-Ressourcengruppe für die Plattengerätegruppe.
nodeA# /usr/cluster/bin/scrgadm -a -g devicegroup-stor-rg -h nodeA,nodeB |
Der Name der Plattengerätegruppe
Der Name der Replikations-Ressourcengruppe
Gibt die Cluster-Knoten an, die die Replikations-Ressourcengruppe unterstützen können.
Fügen Sie eine SUNW.HAStoragePlus-Ressource zur Replikations-Ressourcengruppe hinzu.
nodeA# /usr/cluster/bin/scrgadm -a -j devicegroup-stor \ -g devicegroup-stor-rg -t SUNW.HAStoragePlus \ -x GlobalDevicePaths=devicegroup \ -x AffinityOn=True |
Die HAStoragePlus-Ressource für die Replikations-Ressourcengruppe.
Gibt die Erweiterungseigenschaft an, auf der die Sun StorEdge Availability Suite-Software basiert.
Gibt an, dass die SUNW.HAStoragePlus-Ressource ein Affinitäts-Switchover für die von -x GlobalDevicePaths= definierten globalen Geräte und Cluster-Dateisysteme durchführen muss. Daher wird bei einem Failover oder Switchover der Replikations-Ressourcengruppe ein Switchover für die Gerätegruppe durchgeführt.
Weitere Informationen zu diesen Erweiterungseigenschaften finden Sie in der Online-Dokumentation unter SUNW.HAStoragePlus(5).
Fügen Sie der Replikations-Ressourcengruppe eine Ressource logischer Hostname hinzu.
nodeA# /usr/cluster/bin/scrgadm -a -L -j lhost-reprg-prim \ -g devicegroup-stor-rg -l lhost-reprg-prim |
lhost-reprg-prim ist der logische Hostname für die Replikations-Ressourcengruppe im primären Cluster.
Aktivieren Sie die Ressourcen, verwalten Sie die Ressourcengruppe und bringen Sie die Ressourcengruppe online.
nodeA# /usr/cluster/bin/scswitch -Z -g devicegroup-stor-rg nodeA# /usr/cluster/bin/scswitch -z -g devicegroup-stor-rg -h nodeA |
Überprüfen Sie, ob die Ressourcengruppe online ist.
nodeA# /usr/cluster/bin/scstat -g |
Prüfen Sie das Statusfeld der Ressourcengruppe, um zu bestätigen, dass die Replikations-Ressourcengruppe auf nodeA online ist.
Wechseln Sie zu So erstellen Sie eine Replikations-Ressourcengruppe im sekundären Cluster.
Vergewissern Sie sich, dass Sie die Schritte unter So erstellen Sie eine Replikations-Ressourcengruppe auf dem primären Cluster ausgeführt haben.
Greifen Sie als Superuser auf nodeC zu.
Registrieren Sie SUNW.HAStoragePlus als Ressourcentyp.
nodeC# /usr/cluster/bin/scrgadm -a -t SUNW.HAStoragePlus |
Erstellen Sie eine Replikations-Ressourcengruppe für die Plattengerätegruppe.
nodeC# /usr/cluster/bin/scrgadm -a -g devicegroup-stor-rg -h nodeC |
Der Name der Plattengerätegruppe
Der Name der Replikations-Ressourcengruppe
Gibt den Cluster-Knoten an, der die Replikations-Ressourcengruppe unterstützen können.
Fügen Sie eine SUNW.HAStoragePlus-Ressource zur Replikations-Ressourcengruppe hinzu.
nodeC# /usr/cluster/bin/scrgadm -a -j devicegroup-stor \ -g devicegroup-stor-rg -t SUNW.HAStoragePlus \ -x GlobalDevicePaths=devicegroup \ -x AffinityOn=True |
Die HAStoragePlus-Ressource für die Replikations-Ressourcengruppe.
Gibt die Erweiterungseigenschaft an, auf der die Sun StorEdge Availability Suite-Software basiert.
Gibt an, dass die SUNW.HAStoragePlus-Ressource ein Affinitäts-Switchover für die von -x GlobalDevicePaths= definierten globalen Geräte und Cluster-Dateisysteme durchführen muss. Daher wird bei einem Failover oder Switchover der Replikations-Ressourcengruppe ein Switchover für die Gerätegruppe durchgeführt.
Weitere Informationen zu diesen Erweiterungseigenschaften finden Sie in der Online-Dokumentation unter SUNW.HAStoragePlus(5).
Fügen Sie der Replikations-Ressourcengruppe eine Ressource logischer Hostname hinzu.
nodeC# /usr/cluster/bin/scrgadm -a -L -j lhost-reprg-sec \ -g devicegroup-stor-rg -l lhost-reprg-sec |
lhost-reprg-sec ist der logische Hostname für die Replikations-Ressourcengruppe im primären Cluster.
Aktivieren Sie die Ressourcen, verwalten Sie die Ressourcengruppe und bringen Sie die Ressourcengruppe online.
nodeC# /usr/cluster/bin/scswitch -Z -g devicegroup-stor-rg |
Überprüfen Sie, ob die Ressourcengruppe online ist.
nodeC# /usr/cluster/bin/scstat -g |
Prüfen Sie das Statusfeld der Ressourcengruppe, um zu bestätigen, dass die Replikations-Ressourcengruppe auf nodeC online ist.
Wechseln Sie zu So erstellen Sie eine Ressourcengruppe für die NFS-Anwendung im primären Cluster .
Dieses Verfahren beschreibt die Erstellung von Anwendungs-Ressourcengruppen für NFS. Dieses Verfahren gilt speziell für diese Anwendung und kann nicht für einen anderen Anwendungstyp verwendet werden.
Vergewissern Sie sich, dass Sie die Schritte unter So erstellen Sie eine Replikations-Ressourcengruppe im sekundären Cluster ausgeführt haben.
Greifen Sie als Superuser auf nodeA zu.
Registrieren Sie SUNW.nfs als Ressourcentyp.
nodeA# scrgadm -a -t SUNW.nfs |
Sollte SUNW.HAStoragePlus noch nicht als Ressourcentyp registriert sein, führen Sie die Registrierung jetzt aus.
nodeA# scrgadm -a -t SUNW.HAStoragePlus |
Erstellen Sie eine Anwendungs-Ressourcengruppe für devicegroup.
nodeA# scrgadm -a -g nfs-rg \ -y Pathprefix=/global/etc \ -y Auto_start_on_new_cluster=False \ -y RG_dependencies=devicegroup-stor-rg |
Der Name der Anwendungs-Ressourcengruppe
Gibt ein Verzeichnis an, in das die Ressourcen in der Gruppe Verwaltungsdateien schreiben können.
Gibt an, dass die Anwendungs-Ressourcengruppe nicht automatisch gestartet wird.
Gibt die Ressourcengruppen an, von denen die Anwendungs-Ressourcengruppe abhängt. In diesem Beispiel hängt die Anwendungs-Ressourcengruppe von der Replikations-Ressourcengruppe ab.
Wenn die Anwendungs-Ressourcengruppe auf den neuen Primärknoten umgeschaltet wird, wird die Replikations-Ressourcengruppe automatisch umgeschaltet. Wenn jedoch die Replikations-Ressourcengruppe auf den neuen Primärknoten umgeschaltet wird, muss die Anwendungs-Ressourcengruppe manuell umgeschaltet werden.
Fügen Sie eine SUNW.HAStoragePlus-Ressource zur Anwendungs-Ressourcengruppe hinzu.
nodeA# scrgadm -a -j nfs-dg-rs -g nfs-rg \ -t SUNW.HAStoragePlus \ -x FileSystemMountPoints=/global/mountpoint \ -x AffinityOn=True |
Der Name der HAStoragePlus-Ressource für die NFS-Anwendung.
Gibt an, dass der Einhängepunkt für das Dateisystem global ist.
Gibt an, dass die Ressource vom Typ SUNW.HAStoragePlus ist.
Gibt an, dass die Anwendungsressource für die von -x GlobalDevicePaths= definierten globalen Geräte und Cluster-Dateisysteme ein Affinitäts-Switchover durchführen muss. Daher wird bei einem Failover oder Switchover der Ressourcengruppe für die zugehörige Gerätegruppe ein Switchover ausgeführt.
Weitere Informationen zu diesen Erweiterungseigenschaften finden Sie in der Online-Dokumentation unter SUNW.HAStoragePlus(5).
Fügen Sie der Anwendungs-Ressourcengruppe eine Ressource logischer Hostname hinzu.
nodeA# /usr/cluster/bin/scrgadm -a -L -j lhost-nfsrg-prim -g nfs-rg \ -l lhost-nfsrg-prim |
lhost-nfsrg-prim ist der logische Hostname der Anwendungs-Ressourcengruppe im primären Cluster.
Aktivieren Sie die Ressourcen, verwalten Sie die Anwendungs-Ressourcengruppe und bringen Sie die Anwendungs-Ressourcengruppe online.
Bringen Sie die HAStoragePlus-Ressource für die NFS-Anwendung online.
nodeA# /usr/cluster/bin/scrgadm -a -g nfs-rg \ -j nfs-rs -t SUNW.nfs -y Resource_dependencies=nfs-dg-rs |
Bringen Sie die Anwendungs-Ressourcengruppe auf nodeA online.
nodeA# /usr/cluster/bin/scswitch -Z -g nfs-rg nodeA# /usr/cluster/bin/scswitch -z -g nfs-rg -h nodeA |
Überprüfen Sie, ob die Anwendungs-Ressourcengruppe online ist.
nodeA# /usr/cluster/bin/scstat -g |
Prüfen Sie das Statusfeld der Ressourcengruppe, um zu ermitteln, ob die Anwendungs-Ressourcengruppe für nodeA und nodeB online ist.
Wechseln Sie zu So erstellen Sie eine Ressourcengruppe für die NFS-Anwendung im sekundären Cluster.
Vergewissern Sie sich, dass Sie die Schritte unter So erstellen Sie eine Ressourcengruppe für die NFS-Anwendung im primären Cluster ausgeführt haben.
Greifen Sie als Superuser auf nodeC zu.
Registrieren Sie SUNW.nfs als Ressourcentyp.
nodeC# scrgadm -a -t SUNW.nfs |
Sollte SUNW.HAStoragePlus noch nicht als Ressourcentyp registriert sein, führen Sie die Registrierung jetzt aus.
nodeC# scrgadm -a -t SUNW.HAStoragePlus |
Erstellen Sie eine Anwendungs-Ressourcengruppe für devicegroup.
nodeC# scrgadm -a -g nfs-rg \ -y Pathprefix=/global/etc \ -y Auto_start_on_new_cluster=False \ -y RG_dependencies=devicegroup-stor-rg |
Der Name der Anwendungs-Ressourcengruppe
Gibt ein Verzeichnis an, in das die Ressourcen in der Gruppe Verwaltungsdateien schreiben können.
Gibt an, dass die Anwendungs-Ressourcengruppe nicht automatisch gestartet wird.
Gibt die Ressourcengruppen an, von denen die Anwendungs-Ressourcengruppe abhängt. In diesem Beispiel hängt die Anwendungs-Ressourcengruppe von der Replikations-Ressourcengruppe ab.
Wenn die Anwendungs-Ressourcengruppe auf den neuen Primärknoten umgeschaltet wird, wird die Replikations-Ressourcengruppe automatisch umgeschaltet. Wenn jedoch die Replikations-Ressourcengruppe auf den neuen Primärknoten umgeschaltet wird, muss die Anwendungs-Ressourcengruppe manuell umgeschaltet werden.
Fügen Sie eine SUNW.HAStoragePlus-Ressource zur Anwendungs-Ressourcengruppe hinzu.
nodeC# scrgadm -a -j nfs-dg-rs -g nfs-rg \ -t SUNW.HAStoragePlus \ -x FileSystemMountPoints=/global/mountpoint \ -x AffinityOn=True |
Der Name der HAStoragePlus-Ressource für die NFS-Anwendung.
Gibt an, dass der Einhängepunkt für das Dateisystem global ist.
Gibt an, dass die Ressource vom Typ SUNW.HAStoragePlus ist.
Gibt an, dass die Anwendungsressource für die von -x GlobalDevicePaths= definierten globalen Geräte und Cluster-Dateisysteme ein Affinitäts-Switchover durchführen muss. Daher wird bei einem Failover oder Switchover der Ressourcengruppe für die zugehörige Gerätegruppe ein Switchover ausgeführt.
Weitere Informationen zu diesen Erweiterungseigenschaften finden Sie in der Online-Dokumentation unter SUNW.HAStoragePlus(5).
Fügen Sie der Anwendungs-Ressourcengruppe eine Ressource logischer Hostname hinzu.
nodeC# /usr/cluster/bin/scrgadm -a -L -j lhost-nfsrg-sec -g nfs-rg \ -l lhost-nfsrg-sec |
lhost-nfsrg-sec ist der logische Hostname der Anwendungs-Ressourcengruppe im sekundären Cluster.
Fügen Sie eine NFS-Ressource zur Anwendungs-Ressourcengruppe hinzu.
nodeC# /usr/cluster/bin/scrgadm -a -g nfs-rg \ -j nfs-rs -t SUNW.nfs -y Resource_dependencies=nfs-dg-rs |
Stellen Sie sicher, dass die Anwendungs-Ressourcengruppe nicht auf nodeC online gebracht wird.
nodeC# /usr/cluster/bin/scswitch -n -j nfs-rs nodeC# /usr/cluster/bin/scswitch -n -j nfs-dg-rs nodeC# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-sec nodeC# /usr/cluster/bin/scswitch -z -g nfs-rg -h "" |
Die Ressourcengruppe bleibt nach dem Neubooten offline, weil Auto_start_on_new_cluster=False.
Wenn der globale Datenträger im primären Cluster eingehängt ist, hängen Sie ihn aus dem sekundären Cluster aus.
nodeC# umount /global/mountpoint |
Wenn der Datenträger im sekundären Cluster eingehängt ist, schlägt die Synchronisierung fehl.
Wechseln Sie zu Beispiel für das Aktivieren der Datenreplikation
In diesem Abschnitt wird die Aktivierung der Datenreplikation für die Beispielkonfiguration beschrieben. In diesem Abschnitt werden die Befehle sndradm und iiadm der Sun StorEdge Availability Suite-Software verwendet. Weitere Informationen zu diesen Befehlen finden Sie im Sun Cluster 3.0 and Sun StorEdge Software Integration Guide.
Dieses Kapitel umfasst folgende Anweisungen:
Greifen Sie als Superuser auf nodeA zu.
Löschen Sie alle Transaktionen.
nodeA# /usr/sbin/lockfs -a -f |
Bestätigen Sie, dass die logischen Hostnamen lhost-reprg-prim und lhost-reprg-sec online gebracht wurden.
nodeA# /usr/cluster/bin/scstat -g nodeC# /usr/cluster/bin/scstat -g |
Prüfen Sie das Statusfeld der Ressourcengruppe.
Aktivieren Sie die Replikation mit remotem Spiegel vom primären Cluster auf den sekundären Cluster.
Mit diesem Schritt wird die Replikation vom Master-Datenträger des primären Clusters auf den Master-Datenträger des sekundären Clusters aktiviert. Des Weiteren aktiviert dieser Schritt auch die Replikation auf das remote Spiegel-Bitmap auf vol04.
Wenn der primäre und sekundäre Cluster nicht synchronisiert sind, führen Sie diesen Befehl aus:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
Wenn der primäre und sekundäre Cluster synchronisiert sind, führen Sie diesen Befehl aus:
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -E lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
Aktivieren Sie die Auto-Synchronisierung.
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -a on lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
Mit diesem Schritt wird die Auto-Synchronisierung aktiviert. Wenn der aktive Zustand der Auto-Synchronisierung auf on eingestellt ist, werden die Datenträgersätze neu synchronisiert, sollte das System neu booten oder ein Fehler auftreten.
Überprüfen Sie, ob sich der Cluster im Protokollierungsmodus befindet.
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
Die Ausgabe sollte der folgenden ähneln:
/dev/vx/rdsk/devicegroup/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01 autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devicegroup, state: logging |
Im Protokollierungsmodus lautet der Zustand logging und der aktive Zustand der Auto-Synchronisierung off. Wenn der Daten-Datenträger auf der Platte beschrieben wird, wird die Bitmap-Datei auf derselben Platte aktualisiert.
Aktivieren Sie die Schnappschuss-Kopie.
nodeA# /usr/opt/SUNWesm/sbin/iiadm -e ind \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol02 \ /dev/vx/rdsk/devicegroup/vol03 nodeA# /usr/opt/SUNWesm/sbin/iiadm -w \ /dev/vx/rdsk/devicegroup/vol02 |
Mit diesem Schritt wird das Kopieren des Master-Datenträgers des primären Clusters auf den Schattendatenträger desselben Clusters aktiviert. Der Master-Datenträger, der Schattendatenträger und der punktuelle Bitmap-Datenträger müssen sich in derselben Gerätegruppe befinden. In diesem Beispiel ist der Master-Datenträger vol01, tder Schattendatenträger vol02 und der punktuelle Bitmap-Datenträger vol03.
Hängen Sie die Schnappschuss-Kopie an den remoten Spiegelsatz an.
nodeA# /usr/opt/SUNWesm/sbin/sndradm -I a \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol02 \ /dev/vx/rdsk/devicegroup/vol03 |
In diesem Schritt wird die Schnappschuss-Kopie dem remoten Spiegel-Datenträgersatz zugeordnet. Die Sun StorEdge Availability Suite-Software stellt sicher, dass vor der Replikation mit remotem Spiegel ein punktueller Schnappschuss erstellt wird.
Wechseln Sie zu So aktivieren Sie die Replikation im sekundären Cluster.
Vergewissern Sie sich, dass Sie die Schritte unter So aktivieren Sie die Replikation im primären Cluster ausgeführt haben.
Greifen Sie als Superuser auf nodeC zu.
Löschen Sie alle Transaktionen.
nodeC# /usr/sbin/lockfs -a -f |
Aktivieren Sie die Replikation mit remotem Spiegel vom primären Cluster auf den sekundären Cluster.
nodeC# /usr/opt/SUNWesm/sbin/sndradm -n -e lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
Der primäre Cluster erkennt die Anwesenheit des sekundären Clusters und startet die Synchronisierung. Informationen zum Status der Cluster finden in der Systemprotokolldatei /var/opt/SUNWesm/ds.log.
Aktivieren Sie die unabhängige Schnappschuss-Kopie.
nodeC# /usr/opt/SUNWesm/sbin/iiadm -e ind \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol02 \ /dev/vx/rdsk/devicegroup/vol03 nodeC# /usr/opt/SUNWesm/sbin/iiadm -w \ /dev/vx/rdsk/devicegroup/vol02 |
Hängen Sie die Schnappschuss-Kopie an den remoten Spiegelsatz an.
nodeC# /usr/opt/SUNWesm/sbin/sndradm -I a \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol02 \ /dev/vx/rdsk/devicegroup/vol03 |
Wechseln Sie zu Beispiel für das Durchführen der Datenreplikation .
In diesem Abschnitt wird die Durchführung der Datenreplikation für die Beispielkonfiguration beschrieben. In diesem Abschnitt werden die Befehle sndradm und iiadm der Sun StorEdge Availability Suite-Software verwendet. Weitere Informationen zu diesen Befehlen finden Sie im Sun Cluster 3.0 and Sun StorEdge Software Integration Guide.
Dieses Kapitel umfasst folgende Anweisungen:
In diesem Verfahren wird der Master-Datenträger der primären Platte auf den Master-Datenträger der sekundären Platte repliziert. Der Master-Datenträger ist vol01 und der punktuelle-Bitmap-Datenträger ist vol04.
Greifen Sie als Superuser auf nodeA zu.
Überprüfen Sie, ob sich der Cluster im Protokollierungsmodus befindet.
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
Die Ausgabe sollte der folgenden ähneln:
/dev/vx/rdsk/devicegroup/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01 autosync: off, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devicegroup, state: logging |
Im Protokollierungsmodus lautet der Zustand logging und der aktive Zustand der Auto-Synchronisierung off. Wenn der Daten-Datenträger auf der Platte beschrieben wird, wird die Bitmap-Datei auf derselben Platte aktualisiert.
Löschen Sie alle Transaktionen.
nodeA# /usr/sbin/lockfs -a -f |
Kopieren Sie den Master-Datenträger von nodeA auf den Master-Datenträger von nodeC.
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -m lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
Warten Sie, bis die Replikation abgeschlossen ist und die Datenträger synchronisiert sind.
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -w lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
Bestätigen Sie, dass sich der Cluster im Replikationsmodus befindet.
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
Die Ausgabe sollte der folgenden ähneln:
/dev/vx/rdsk/devicegroup/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01 autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devicegroup, state: replicating |
Im Replikationsmodus lautet der Zustand replicating und der aktive Zustand der Auto-Synchronisierung on. Wenn der primäre Datenträger beschrieben wird, wird der sekundäre Datenträger von der Sun StorEdge Availability Suite-Software aktualisiert.
Wechseln Sie zu So erstellen Sie eine Schnappschuss-Kopie .
In diesem Verfahren werden der Schattendatenträger und der Master-Datenträger des primären Clusters mithilfe eines punktuellen Schnappschusses synchronisiert. Der Master-Datenträger ist vol01, der Bitmap-Datenträger ist vol04 und der Schattendatenträger ist vol02.
Vergewissern Sie sich, dass Sie die Schritte unter So führen Sie eine Replikation mit remotem Spiegel durch ausgeführt haben.
Greifen Sie als Superuser auf nodeA zu.
Deaktivieren Sie die auf nodeA ausgeführte Ressource.
nodeA# /usr/cluster/bin/scswitch -n -j nfs-rs |
Bringen Sie den primären Cluster in den Protokollierungsmodus.
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
Wenn der Daten-Datenträger auf der Platte beschrieben wird, wird die Bitmap-Datei auf derselben Platte aktualisiert. Es findet keine Replikation statt.
Synchronisieren Sie den Schattendatenträger und den Master-Datenträger des primären Clusters.
nodeA# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devicegroup/vol02 nodeA# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devicegroup/vol02 |
Synchronisieren Sie den Schattendatenträger und den Master-Datenträger des sekundären Clusters.
nodeC# /usr/opt/SUNWesm/sbin/iiadm -u s /dev/vx/rdsk/devicegroup/vol02 nodeC# /usr/opt/SUNWesm/sbin/iiadm -w /dev/vx/rdsk/devicegroup/vol02 |
Starten Sie die Anwendung auf nodeA neu.
nodeA# /usr/cluster/bin/scswitch -e -j nfs-rs |
Synchronisieren Sie den sekundären Datenträger mit dem primären Datenträger erneut.
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
Wechseln Sie zu So überprüfen Sie die Richtigkeit der Replikationskonfiguration
Vergewissern Sie sich, dass Sie die Schritte unter So erstellen Sie eine Schnappschuss-Kopie ausgeführt haben.
Überprüfen Sie, ob sich der primäre Cluster im Replikationsmodus befindet und die Auto-Synchronisierung aktiviert ist.
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
Die Ausgabe sollte der folgenden ähneln:
/dev/vx/rdsk/devicegroup/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01 autosync: on, max q writes:4194304, max q fbas:16384, mode:sync,ctag: devicegroup, state: replicating |
Im Replikationsmodus lautet der Zustand replicating und der aktive Zustand der Auto-Synchronisierung on. Wenn der primäre Datenträger beschrieben wird, wird der sekundäre Datenträger von der Sun StorEdge Availability Suite-Software aktualisiert.
Wenn Sie der primäre Cluster nicht im Replikationsmodus befindet, müssen Sie ihn in diesen Modus versetzen.
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
Erstellen Sie ein Verzeichnis auf einem Client-Rechner.
Hängen Sie das Verzeichnis in die Anwendung im primären Cluster ein und zeigen Sie das eingehängte Verzeichnis an.
Hängen Sie das Verzeichnis in die Anwendung im sekundären Cluster ein und zeigen Sie das eingehängte Verzeichnis an.
Hängen Sie das Verzeichnis aus der Anwendung im primären Cluster aus.
client-machine# umount /dir |
Nehmen Sie die Anwendungs-Ressourcengruppe im primären Cluster offline.
nodeA# /usr/cluster/bin/scswitch -n -j nfs-rs nodeA# /usr/cluster/bin/scswitch -n -j nfs-dg-rs nodeA# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-prim nodeA# /usr/cluster/bin/scswitch -z -g nfs-rg -h "" |
Bringen Sie den primären Cluster in den Protokollierungsmodus.
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
Wenn der Daten-Datenträger auf der Platte beschrieben wird, wird die Bitmap-Datei auf derselben Platte aktualisiert. Es findet keine Replikation statt.
Stellen Sie sicher, dass das PathPrefix-Verzeichnis verfügbar ist.
nodeC# mount | grep /global/etc |
Bringen Sie die Anwendungs-Ressourcengruppe im sekundären Cluster online.
nodeC# /usr/cluster/bin/scswitch -Z -g nfs-rg |
Greifen Sie als Superuser auf den Client-Rechner zu.
Es wird eine Eingabeaufforderung angezeigt, die der folgenden ähnelt:
client-machine# |
Hängen Sie das in Schritt 3 erstellte Verzeichnis in die Anwendung im sekundären Cluster ein.
client-machine# mount -o rw lhost-nfsrg-sec:/global/mountpoint /dir |
Zeigen Sie das eingehängte Verzeichnis an.
client-machine# ls /dir |
Stellen Sie sicher, dass das in Schritt 4 angezeigte Verzeichnis mit dem in Schritt 5 identisch ist.
Bringen Sie die Anwendung im primären Cluster zum eingehängten Verzeichnis zurück.
Nehmen Sie die Anwendungs-Ressourcengruppe im sekundären Cluster offline.
nodeC# /usr/cluster/bin/scswitch -n -j nfs-rs nodeC# /usr/cluster/bin/scswitch -n -j nfs-dg-rs nodeC# /usr/cluster/bin/scswitch -n -j lhost-nfsrg-sec nodeC# /usr/cluster/bin/scswitch -z -g nfs-rg -h "" |
Stellen Sie sicher, das der globale Datenträger aus dem sekundären Cluster ausgehängt ist.
nodeC# umount /global/mountpoint |
Bringen Sie die Anwendungs-Ressourcengruppe im primären Cluster online.
nodeA# /usr/cluster/bin/scswitch -Z -g nfs-rg |
Bringen Sie den primären Cluster in den Replikationsmodus.
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -u lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
Wenn der primäre Datenträger beschrieben wird, wird der sekundäre Datenträger von der Sun StorEdge Availability Suite-Software aktualisiert.
Beispiel für die Verwaltung eines Failovers oder Switchovers
In diesem Abschnitt wird beschrieben, wie Switchover verursacht und die Anwendung auf einen sekundären Cluster übertragen wird. Nach einem Switchover oder Failover müssen Sie die DNS-Einträge aktualisieren. Weitere Informationen finden Sie unter Richtlinien zum Verwalten eines Failover oder Switchover.
Dieses Kapitel umfasst folgende Anweisungen:
Bringen Sie den primären Cluster in den Protokollierungsmodus.
nodeA# /usr/opt/SUNWesm/sbin/sndradm -n -l lhost-reprg-prim \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 lhost-reprg-sec \ /dev/vx/rdsk/devicegroup/vol01 \ /dev/vx/rdsk/devicegroup/vol04 ip sync |
Wen der Daten-Datenträger auf der Platte beschrieben wird, wird die Bitmap-Datei auf derselben Platte aktualisiert. Es findet keine Replikation statt.
Bestätigen Sie, dass sich sowohl der primäre als auch der sekundäre Cluster im Protokollierungsmodus befinden und die Auto-Synchronisierung deaktiviert ist.
Bestätigen Sie Modus und Einstellung auf nodeA.
nodeA# /usr/opt/SUNWesm/sbin/sndradm -P |
Die Ausgabe sollte der folgenden ähneln:
/dev/vx/rdsk/devicegroup/vol01 -> lhost-reprg-sec:/dev/vx/rdsk/devicegroup/vol01 autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag: devicegroup, state: logging |
Bestätigen Sie Modus und Einstellung auf nodeC.
nodeC# /usr/opt/SUNWesm/sbin/sndradm -P |
Die Ausgabe sollte der folgenden ähneln:
/dev/vx/rdsk/devicegroup/vol01 <- lhost-reprg-prim:/dev/vx/rdsk/devicegroup/vol01 autosync:off, max q writes:4194304,max q fbas:16384,mode:sync,ctag: devicegroup, state: logging |
Für nodeA und nodeC sollte der Zustand logging lauten und der aktive Zustand der Auto-Synchronisierung sollte auf off eingestellt sein.
Bestätigen Sie, dass für den sekundären Cluster ein Takeover vom primären Cluster durchgeführt werden kann.
nodeC# /usr/sbin/fsck -y /dev/vx/rdsk/devicegroup/vol01 |
Schalten Sie auf den sekundären Cluster um.
nodeC# scswitch -Z -g nfs-rg |
Wechseln Sie zu So aktualisieren Sie den DNS-Eintrag .
Die Abbildung einer DNS-Zuordnung zwischen einem Client und einem Cluster finden Sie in Abbildung 6–6.
Vergewissern Sie sich, dass Sie alle Schritte unter So verursachen Sie ein Switchover ausgeführt haben.
Starten Sie den nsupdate-Befehl.
Informationen finden Sie in der Online-Dokumentation unter nsupdate(1M).
Entfernen Sie bei beiden Clustern die aktuelle DNS-Zuordnung zwischen dem logischen Hostnamen der Anwendungs-Ressourcengruppe und der Cluster-IP-Adresse.
> update delete lhost-nfsrg-prim A > update delete lhost-nfsrg-sec A > update delete ipaddress1rev.in-addr.arpa ttl PTR lhost-nfsrg-prim > update delete ipaddress2rev.in-addr.arpa ttl PTR lhost-nfsrg-sec |
Die IP-Adresse des primären Clusters, in umgekehrter Reihenfolge.
Die IP-Adresse des sekundären Clusters, in umgekehrter Reihenfolge.
Die Lebensdauer in Sekunden Ein typischer Wert ist 3600.
Erstellen Sie bei beiden Clustern eine neue DNS-Zuordnung zwischen dem logischen Hostnamen der Anwendungs-Ressourcengruppe und der Cluster-IP-Adresse.
Ordnen Sie den primären logischen Hostnamen der IP-Adresse des sekundären Clusters und den sekundären logischen Hostnamen der IP-Adresse des primären Clusters zu.
> update add lhost-nfsrg-prim ttl A ipaddress2fwd > update add lhost-nfsrg-sec ttl A ipaddress1fwd > update add ipaddress2rev.in-addr.arpa ttl PTR lhost-nfsrg-prim > update add ipaddress1rev.in-addr.arpa ttl PTR lhost-nfsrg-sec |
Die IP-Adresse des sekundären Clusters, in fortlaufender Reihenfolge.
Die IP-Adresse des primären Clusters, in fortlaufender Reihenfolge.
Die IP-Adresse des sekundären Clusters, in umgekehrter Reihenfolge.
Die IP-Adresse des primären Clusters, in umgekehrter Reihenfolge.