Dieses Kapitel beschreibt die Verfahren zum Verwalten von globalen Geräten, Plattenpfadüberwachung und Cluster-Dateisystemen.
Es folgt eine Liste der in diesem Kapitel enthaltenen Verfahren.
So entfernen Sie einen Knoten aus allen Plattengerätegruppen
So erstellen Sie mehr als drei Plattensätze in einem Cluster
SPARC: So erstellen Sie eine neue Plattengruppe beim Einkapseln von Platten (VERITAS Volume Manager)
SPARC: So weisen Sie einer Plattengerätegruppe eine neue Unternummer zu (VERITAS Volume Manager)
SPARC: So registrieren Sie eine Plattengruppe als Plattengerätegruppe (VERITAS Volume Manager)
SPARC: So registrieren Sie Konfigurationsänderungen bei Plattengruppen (VERITAS Volume Manager)
SPARC: So stellen Sie die gewünschte Anzahl von Sekundärknoten ein (VERITAS Volume Manager)
SPARC: So entfernen Sie ein Volume aus einer Plattengerätegruppe (VERITAS Volume Manager)
SPARC: So entfernen und deregistrieren Sie eine Plattengerätegruppe (VERITAS Volume Manager)
SPARC: So fügen Sie einer Plattengruppe einen Knoten hinzu (VERITAS Volume Manager)
SPARC: So entfernen Sie einen Knoten aus einer Plattengerätegruppe (VERITAS Volume Manager)
SPARC: So entfernen Sie einen Knoten aus einer im raw-Modus betriebenen Plattengerätegruppe
So ändern Sie die gewünschte Anzahl von Sekundärknoten für eine Gerätegruppe
So listen Sie die Konfiguration einer Plattengerätegruppe auf
So versetzen Sie eine Plattengerätegruppe in Wartungszustand
Eine detaillierte Beschreibung der einzelnen Verfahren finden Sie in diesem Kapitel in Tabelle 4–2.
Konzeptuelle Informationen im Zusammenhang mit globalen Geräten, globalem Namensraum, Plattengerätegruppen, Plattenpfadüberwachung und Cluster-Dateisystemen finden Sie im Sun Cluster Konzepthandbuch für Solaris OS.
Die Verwaltung von Sun Cluster-Plattengerätegruppen hängt davon ab, welcher Datenträger-Manager im Cluster installiert wurde. Solstice DiskSuite/Solaris Volume Manager arbeitet mit "Cluster-Unterstützung". So können Sie Plattengerätegruppen mit dem Befehl Solstice DiskSuite/Solaris Volume Manager metaset(1M) hinzufügen, registrieren und entfernen. Wenn Sie VERITAS Volume Manager (VxVM) verwenden, erstellen Sie Plattengruppen mithilfe der VxVM-Befehle. Sie registrieren die Plattengruppen als Sun Cluster-Plattengerätegruppen mit dem scsetup(1M)-Dienstpgrogramm. Zum Entfernen von VxVM-Plattengerätegruppen verwenden Sie sowohl den scsetup-Befehl als auch VxVM-Befehle.
Die Sun Cluster-Software erstellt automatisch eine im raw-Modus betriebene Plattengerätegruppe für jede Platte und jedes Bandlaufwerk im Cluster. Diese Cluster-Gerätegruppen bleiben jedoch im Zustand "Offline", bis Sie auf die Gruppen als globale Geräte zugreifen. Zum Verwalten von Plattengerätegruppen oder Datenträger-Manager-Plattengruppen müssen Sie auf dem Cluster-Knoten arbeiten, der als Primärknoten für die Gruppe fungiert.
In der Regel muss der globale Namensraum nicht verwaltet werden. Der globale Namensraum wird bei der Installation automatisch konfiguriert und beim Neubooten des Solaris-Betriebssytems automatisch aktualisiert. Wenn der globale Namensraum jedoch aktualisiert werden muss, können Sie den scgdevs(1M)-Befehl von jedem Cluster-Knoten aus durchführen. Mit diesem Befehl wird der globale Namensraum auf allen anderen Cluster-Knotenmitgliedern und auch auf Knoten, die dem Cluster ggf. später noch beitreten, aktualisiert.
Änderungen an den globalen Geräteberechtigungen werden für Solstice DiskSuite/Solaris Volume Manager und Plattengerätegruppen nicht automatisch an alle Knoten im Cluster weitergegeben. Möchten Sie Berechtigungen für globale Geräte ändern, müssen Sie die Änderungen auf allen Knoten im Cluster manuell durchführen. Wenn Sie zum Beispiel Berechtigungen für das globale Gerät /dev/global/dsk/d3s0auf 644 ändern möchten, müssen Sie
# chmod 644 /dev/global/dsk/d3s0
auf allen Knoten im Cluster ausführen.
VxVM unterstützt den chmod-Befehl nicht. Informationen zum Ändern von globalen Geräteberechtigungen bei VxVM finden Sie im VxVM-Verwaltungshandbuch.
Im Folgenden sind einige Gesichtspunkte zusammengestellt, die bei der Durchführung von dynamischen Rekonfigurationsvorgängen (DR-Vorgängen) bei Plattengeräten und Bandlaufwerken in einem Cluster zu berücksichtigen sind.
Alle für die Solaris-DR-Funktion dokumentierten Anforderungen, Verfahren und Einschränkungen gelten auch für die DR-Unterstützung von Sun Cluster. Die einzige Ausnahme bildet der Vorgang zur Stilllegung der Betriebsumgebung. Sehen Sie deswegen die Dokumentation zur Solaris-DR-Funktion nochmals durch, bevor Sie die DR-Funktion mit der Sun Cluster-Software einsetzen. Lesen Sie insbesondere nochmals die Themen, die sich mit nicht vernetzten E/A-Geräten während eines DR-Trennungsvorgangs beschäftigen.
Sun Cluster lehnt DR-Vorgänge zur Board-Entfernung für aktive Geräte vom Primärknoten ab. DR-Vorgänge können für nicht aktive Geräte auf dem Primärknoten und für alle Geräte auf den Sekundärknoten durchgeführt werden.
Der Cluster-Datenzugriff unterliegt durch den DR-Vorgang keinerlei Änderungen.
Sun Cluster lehnt DR-Vorgänge ab, die sich auf die Verfügbarkeit von Quorum-Geräten auswirken. Weitere Informationen finden Sie unter Dynamische Rekonfiguration von Quorum-Geräten.
Wenn der aktuelle Primärknoten ausfällt, während Sie den DR-Vorgang auf einem Sekundärknoten ausführen, wirkt sich das auf die Cluster-Verfügbarkeit aus. Der Primärknoten kann keinen Failover auf einen anderen Knoten durchführen, bis ein neuer Sekundärknoten bereitgestellt wird.
Zur Durchführung von DR-Vorgängen bei globalen Geräten führen Sie folgende Schritte in der angegebenen Reihenfolge aus.
Tabelle 4–1 Task Map: Dynamische Rekonfiguration mit Plattengeräten und Bandlaufwerken
Schritt |
Anweisungen siehe |
---|---|
1. Wenn ein DR-Vorgang mit Auswirkungen auf eine aktive Gerätegruppe auf einem Primärknoten auszuführen ist, schalten Sie vor der Ausführung des DR-Entfernungsvorgangs für das Gerät den Primär- auf den Sekundärknoten um. | |
2. Führen Sie den DR-Entfernungsvorgang für das zu entfernende Gerät aus. |
Sun Enterprise 10000 DR Configuration Guide und Sun Enterprise 10000 Dynamic Reconfiguration Reference Manual aus den Reihen Solaris 8 on Sun Hardware und Solaris 9 on Sun Hardware. |
Damit Sun Cluster den VxVM-Namensraum pflegt, müssen Sie alle Änderungen an VxVM-Plattengruppen oder Datenträgern als Konfigurationsänderungen für Sun Cluster-Plattengerätegruppen registrieren. Das Registrieren dieser Änderungen garantiert die Aktualisierung des Namensraums auf allen Cluster-Knoten. Zu den Beispielen für Konfigurationsänderungen mit Auswirkungen auf den Namensraum gehört das Hinzufügen, Entfernen und Umbenennen eines Datenträgers. Auch das Ändern von Berechtigungen, Besitzer oder Gruppen-ID für Datenträger hat Auswirkungen auf den Namensraum.
Importieren oder deportieren Sie niemals VxVM-Plattengruppen mit VxVM-Befehlen, nachdem die Plattengruppe beim Cluster als Sun Cluster-Plattengerätegruppe registriert wurde. Die Sun Cluster-Software bearbeitet alle Fälle, in denen Plattengruppen importiert oder deportiert werden müssen.
Jede VxVM-Plattengruppe muss eine Cluster-weite einmalige Unternummer besitzen. Standardmäßig wählt VxVM bei der Erstellung einer Plattengruppe eine Zufallszahl, nämlich ein Mehrfaches von 1000, als Basis-Unternummer für diese Plattengruppe. Bei den meisten Konfigurationen mit einer kleineren Anzahl von Plattengruppen reicht die Unternummer aus, um die Einmaligkeit sicherzustellen. Die Unternummer für eine neu erstellte Plattengruppe kann zu einem Konflikt mit der Unternummer einer bereits vorhandenen, auf einem anderen Knoten importierten Plattengruppe führen. In diesem Fall schlägt der Versuch zur Registrierung der Sun Cluster-Plattengerätegruppe fehl. Zur Behebung des Problems ist die neue Plattengruppe mit einer neuen Unternummer zu versehen, die einen einmaligen Wert darstellt, und dann als Sun Cluster-Plattengerätegruppe zu registrieren.
Beim Konfigurieren eines gespiegelten Datenträgers können Sie DRL (Dirty Region Logging) zur Verringerung der Datenträger-Wiederherstellungszeit nach einem Knotenversagen einsetzen. Die Verwendung von DRL wird dringend empfohlen, obwohl der Einsatz von DRL die E/A-Leistung senken kann.
VxVM unterstützt den chmod-Befehl nicht. Informationen zum Ändern von globalen Geräteberechtigungen bei VxVM finden Sie im VxVM-Verwaltungshandbuch.
Die Sun Cluster 3.1 4/04-Software unterstützt VxVM Dynamic Multipathing (DMP) zur Verwaltung mehrerer Pfade desselben Knotens nicht.
Wenn Sie mit VxVM gemeinsam genutzte Plattengruppen für Oracle Parallel Server oder Oracle Real Application Clusters konfigurieren, verwenden Sie die Cluster-Funktionalität von VxVM, die im VERITAS Volume Manager Administrator's Reference Guide beschrieben wird. Es gibt Unterschiede zwischen der Erstellung gemeinsam genutzter Plattengruppen für Oracle Parallel Server oder Oracle Real Application Clusters und der Erstellung anderer Plattengruppen. Sie müssen gemeinsam genutzte Oracle Parallel Server oder Oracle Real Application Clusters-Plattengruppen mit vxdg -s importieren. Registrieren Sie gemeinsam genutzte Oracle Parallel Server oder Oracle Real Application Clusters-Plattengruppen nicht beim Cluster Framework. Wie Sie andere VxVM-Plattengruppen erstellen, erfahren Sie unter SPARC: So erstellen Sie eine neue Plattengruppe beim Initialisieren von Platten (VERITAS Volume Manager) .
Für die Systemverwaltung von Cluster-Dateisystemen sind keine speziellen Sun Cluster-Befehle erforderlich. Sie verwalten ein Cluster-Dateisystem ebenso wie jedes andere Solaris-Dateisystem mit Standardbefehlen für Solaris-Dateisysteme wie mount, newfs und so weiter. Das Einhängen von Cluster-Dateisystemen erfolgt mit der Option -g des mount-Befehls. Cluster-Dateisysteme können auch automatisch beim Booten eingehängt werden.
Wenn das Cluster-Dateisystem Dateien liest, aktualisiert es die Zugriffszeit für diese Dateien nicht.
Für die Cluster-Dateisystemverwaltung gelten die folgenden Einschränkungen:
Der Befehl unlink(1M) wird bei nicht leeren Verzeichnissen nicht unterstützt.
Der Befehl lockfs -d wird nicht unterstützt. Verwenden Sie lockfs -n als Abhilfemaßnahme.
Sie können ein Cluster-Dateisystem nicht mit der zum Zeitpunkt der Wiedereinhängung hinzugefügten Einhängeoption directio wieder einhängen.
Die Einhängeoption directio kann nicht für eine einzelne Datei unter Verwendung von directio eingestellt werden.
Die folgenden VxFS-Funktionen werden in einem Sun Cluster 3.1-Cluster-Dateisystem nicht unterstützt. In einem lokalen Dateisystem werden Sie jedoch unterstützt.
Quick I/O
Schnappschüsse
Speicher-Checkpoints
VxFS-spezifische Mount-Optionen:
convosync (O_SYNC konvertieren)
mincache
qlog, delaylog, tmplog
VERITAS Cluster-Datesystem (erfordert die VxVM-Cluster-Funktion & VERITAS Cluster Server)
Cache-Berater können verwendet werden, doch ihre Wirkung kann nur auf dem gegebenen Knoten beobachtet werden.
Sämtliche anderen VxFS-Funktionen und Optionen, die in einem Cluster-Dateisystem unterstützt werden, werden in der Sun Cluster 3.1-Software unterstützt. In der VxFS-Dokumentation finden Sie weitere Einzelheiten zu den VxFS-Optionen, die in einer Cluster-Konfiguration unterstützt werden.
Die folgenden Richtlinien für den Einsatz von VxFS zur Erstellung hoch verfügbarer Cluster-Dateisysteme gelten spezifisch für eine Sun Cluster 3.1 4/04-Konfiguration.
Erstellen Sie ein VxFS-Dateisystem anhand der in der VxFS-Dokumentation beschriebenen Verfahren.
Hängen Sie ein VxFS-Dateisystem vom Primärknoten ein und aus. Der Primärknoten unterstützt die Platte, auf der sich das VxFS-Dateisystem befindet. Ein von einem Sekundärknoten aus durchgeführter Ein- oder Aushängevorgang eines VxFS-Dateisystems kann fehlschlagen.
Führen Sie alle VxFS-Verwaltungsbefehle vom Primärknoten des VxFS-Cluster-Dateisystems aus durch.
Die nachstehenden Richtlinien zur Verwaltung von VxFS-Cluster-Dateisystemen gelten nicht spezifisch für Sun Cluster 3.1 4/04-Software. Sie unterscheiden sich jedoch von den Richtlinien bei der Verwaltung von UFS-Cluster-Dateisystemen.
Sie können die Dateien in einem VxFS-Cluster-Dateisystem von jedem Knoten im Cluster aus verwalten. Eine Ausnahme bildet ioctls, das Sie nur vom Primärknoten aus durchführen dürfen. Wenn Sie nicht wissen, ob ein Verwaltungsbefehl ioctls beinhaltet, geben Sie den Befehl von einem Primärknoten aus.
Wechselt ein VxFS-Cluster-Dateisystem bei einem Failover auf einen Sekundärknoten, werden alle beim Failover laufenden Standard-Systemaufrufvorgänge nochmals auf dem neuen Primärknoten transparent ausgegeben. Alle bei einem Failover laufenden und mit ioctl verbundenen Vorgänge schlagen jedoch fehl. Prüfen Sie nach dem Failover eines VxFS-Cluster-Dateisystems den Zustand des Cluster-Dateisystems. Verwaltungsbefehle, die vor dem Failover auf dem alten Primärknoten ausgegeben wurden, müssen ggf. korrigiert werden. Weitere Informationen finden Sie in der Dokumentation zu VxFS.
Das scsetup(1M)-Dienstprogramm stellt eine interaktive Schnittstelle zum scconf(1M)-Befehl dar. scsetup generiert scconf-Befehle. Die so generierten Befehle werden in den nach einigen Verfahren dargestellten Beispielen gezeigt.
Die Sun Cluster-Software erstellt automatisch eine im raw-Modus betriebene Plattengerätegruppe für jedes Plattengerät und Bandlaufwerk im Cluster. Diese Cluster-Gerätegruppen bleiben jedoch im Zustand "Offline", bis Sie auf die Gruppen als globale Geräte zugreifen.
Schritt |
Anweisungen siehe… |
---|---|
Aktualisieren des Namensraums globaler Geräte ohne Rekonfigurations-Neubooten - Verwenden Sie scgdevs(1M) | |
Hinzufügen von Solstice DiskSuite/Solaris Volume Manager-Plattensätzen und deren Registrierung als Plattengerätegruppen - Verwenden Sie metaset(1M) | |
Entfernen von Solstice DiskSuite/Solaris Volume Manager-Plattengerätegruppen aus der Konfiguration - Verwenden Sie metaset nd metaclear(1M) | |
Entfernen eines Knotens aus allen Plattengerätegruppen - Verwenden Sie scconf, metaset und scsetup. |
So entfernen Sie einen Knoten aus allen Plattengerätegruppen |
Entfernen eines Knotens aus einer Solstice DiskSuite/Solaris Volume Manager-Plattengerätegruppe - Verwenden Sie metaset. | |
SPARC: Hinzufügen von VERITAS Volume Manager-Plattengruppen als Plattengerätegruppen - Verwenden Sie VxVM-Befehle und scsetup(1M) |
SPARC: So erstellen Sie eine neue Plattengruppe beim Einkapseln von Platten (VERITAS Volume Manager)
SPARC: So weisen Sie einer Plattengerätegruppe eine neue Unternummer zu (VERITAS Volume Manager)
SPARC: So registrieren Sie eine Plattengruppe als Plattengerätegruppe (VERITAS Volume Manager)
SPARC: So registrieren Sie Konfigurationsänderungen bei Plattengruppen (VERITAS Volume Manager) |
SPARC: Entfernen von VERITAS Volume Manager-Plattengerätegruppen aus der Konfiguration - Verwenden Sie scsetup (zum Generieren von scconf) |
SPARC: So entfernen Sie ein Volume aus einer Plattengerätegruppe (VERITAS Volume Manager)
SPARC: So entfernen und deregistrieren Sie eine Plattengerätegruppe (VERITAS Volume Manager) |
SPARC: Einer VERITAS Volume Manager-Plattengerätegruppe einen Knoten hinzufügen - Mit scsetup generieren Sie scconf |
SPARC: So fügen Sie einer Plattengruppe einen Knoten hinzu (VERITAS Volume Manager) |
SPARC: Entfernen eines Knotens aus einer VERITAS Volume Manager-Plattengerätegruppe - Mit scsetup generieren Sie scconf |
SPARC: So entfernen Sie einen Knoten aus einer Plattengerätegruppe (VERITAS Volume Manager) |
Entfernen eines Knotens aus einer im raw-Modus betriebenen Plattengerätegruppe - Verwenden Sie scconf(1M) |
SPARC: So entfernen Sie einen Knoten aus einer im raw-Modus betriebenen Plattengerätegruppe |
Ändern der Eigenschaften von Plattengerätegruppen - Mit scsetup generieren Sie scconf | |
Anzeigen von Plattengerätegruppen und Eigenschaften - Verwenden Sie scconf. |
So listen Sie die Konfiguration einer Plattengerätegruppe auf |
Ändern der gewünschten Anzahl von Sekundärknoten für eine Plattengruppe - Mit scsetup generieren Sie scconf |
So ändern Sie die gewünschte Anzahl von Sekundärknoten für eine Gerätegruppe |
Umschalten des Primärknotens für eine Plattengerätegruppe - Verwenden Sie scswitch(1M) | |
Versetzen einer Plattengerätegruppe in Wartungszustand - Verwenden Sie metaset oder vxdg. |
So versetzen Sie eine Plattengerätegruppe in Wartungszustand |
Aktualisieren Sie den Namensraum globaler Geräte nach Hinzufügen eines neuen globalen Gerätes manuell mit scgdevs(1M).
Der scgdevs-Befehl hat keine Wirkung, wenn der Knoten, auf dem der Befehl ausgeführt wird, kein aktuelles Cluster-Mitglied ist. Der Befehl hat auch auch keine Wirkung, wenn das Dateisystem /global/.devices/node@nodeID nicht eingehängt ist.
Melden Sie sich bei einem beliebigen Cluster-Knoten als Superbenutzer an.
Mit dem scgdevs-Befehl rekonfigurieren Sie den Namensraum.
# scgdevs |
Das nachstehende Beispiel zeigt die Ausgabe nach einer erfolgreichen Ausführung von scgdevs.
# scgdevs Configuring the /dev/global directory (global devices)... obtaining access to all attached disks reservation program successfully exiting |
Mit dem metaset-Befehl erstellen Sie einen Solstice DiskSuite/Solaris Volume Manager-Plattensatz und registrieren diesen als Sun Cluster-Plattengerätegruppe. Beim Registrieren des Plattensatzes wird der dem Plattensatz zugewiesene Name automatisch der Plattengerätegruppe zugewiesen.
Melden Sich sich bei dem Knoten mit einer Verbindung zu den Platten, auf denen Sie den Plattensatz erstellen möchten, als Superbenutzer an.
Berechnen Sie die Anzahl der Namen für die Solstice DiskSuite-Metageräte oder Solaris Volume Manager-Datenträger, die Sie für Ihre Konfiguration benötigen, und ändern Sie die Datei /kernel/drv/md.conf auf jedem Knoten.
Siehe "So stellen Sie die Anzahl von Metageräte- oder Datenträgernamen und Plattensätzen ein" im Sun Cluster Handbuch Softwareinstallation für Solaris OS.
Mit dem metaset(1M)-Befehl fügen Sie den Solstice DiskSuite/Solaris Volume Manager-Plattensatz hinzu und registrieren diesen als Plattengerätegruppe bei Sun Cluster. Verwenden Sie zum Erstellen einer Multi-Eigentümer-Plattengruppe die Option –M.
# metaset -s diskset -a -M -h nodelist |
Gibt den zu erstellenden Plattensatz an.
Fügt die Liste der Knoten hinzu, die den Plattensatz unterstützen können.
Bestimmt die Plattengruppe als Multi-Eigentümer.
Bei der Ausführung des metaset-Befehls zur Konfiguration einer Solstice DiskSuite/Solaris Volume Manager-Gerätegruppe in einem Cluster wird standardmäßig ein Sekundärknoten eingestellt, unabhängig von der Anzahl der in der Gerätegruppe enthaltenen Knoten. Sie können die gewünschte Anzahl von Sekundärknoten mit dem scsetup(1M)-Dienstprogramm ändern, nachdem die Gerätegruppe erstellt wurde. Weitere Informationen über einen Platten-Failover finden Sie unter So ändern Sie die gewünschte Anzahl von Sekundärknoten für eine Gerätegruppe.
Überprüfen Sie, ob die Plattengerätegruppe hinzugefügt wurde.
Der Name der Plattengerätegruppe entspricht dem mit metaset angegebenen Plattensatznamen.
# scconf -p | grep disk-device-group |
Im nachstehenden Beispiel wird die Erstellung von Plattensatz und Plattengerätegruppe und die Prüfung, ob die Plattengerätegruppe erstellt wurde, gezeigt.
# metaset -s dg-schost-1 -a -h phys-schost-1 # scconf -p | grep dg-schost-1 Gerätegruppenname: dg-schost-1 |
Plattengerätegruppen sind bei Sun Cluster registrierte Solstice DiskSuite/Solaris Volume Manager-Plattensätze. Zum Entfernen einer Solstice DiskSuite/Solaris Volume Manager-Plattengerätegruppe verwenden Sie die Befehle metaclear und metaset. Diese Befehle entfernen die gleichnamige Plattengerätegruppe und deregistrieren sie als Sun Cluster-Plattengerätegruppe.
Die Schritte zum Entfernen eines Plattensatzes finden Sie in der Solstice DiskSuite/Solaris Volume Manager-Dokumentation.
Mit diesem Verfahren entfernen Sie einen Cluster-Knoten aus allen Plattengerätegruppen, in deren Liste dieser Knoten als potenzieller Primärknoten geführt wird.
Melden Sie sich bei dem Knoten als Superbenutzer an, den Sie als potenziellen Primärknoten aus allen Plattengerätegruppen entfernen möchten.
Bestimmen Sie die Plattengerätegruppe(n), bei der bzw. denen der zu entfernende Knoten Mitglied ist.
Suchen Sie den Knotennamen für jede Plattengerätegruppe in der Device group node list.
# scconf -p | grep "Device group" |
Weist eine der Plattengerätegruppen aus Schritt 2 den Gerätegruppentyp SDS/SVM auf?
Falls ja, führen Sie die Schritte unter So entfernen Sie einen Knoten aus einer Plattengerätegruppe (Solstice DiskSuite/Solaris Volume Manager) aus
Falls nein, fahren Sie mit Schritt 4 fort.
Weist eine der Plattengerätegruppe aus Schritt 2 den Gerätegruppentyp VxVM auf?
Falls ja, führen Sie die Schritte unter SPARC: So entfernen Sie einen Knoten aus einer Plattengerätegruppe (VERITAS Volume Manager) aus.
Falls nein, fahren Sie mit Schritt 5 fort.
Bestimmen Sie die im raw-Modus betriebenen Plattengerätegruppen, bei denen der zu entfernende Knoten als Mitglied geführt wird.
Beachten Sie, dass der folgende Befehl in der -pvv-Option zwei Mal "v" enthält. Das zweite "v" wird für die Anzeige der im raw-Modus betriebenen Plattengerätegruppen benötigt.
# scconf -pvv | grep "Device group" |
Weist eine der Plattengerätegruppen aus Schritt 5 den Gerätegruppentyp Disk, Local_Disk oder beide auf?
Falls ja, führen Sie die Schritte unter SPARC: So entfernen Sie einen Knoten aus einer im raw-Modus betriebenen Plattengerätegruppe aus.
Falls nein, fahren Sie mit Schritt 7 fort.
Prüfen Sie, ob der Knoten aus der Liste der potenziellen Primärknoten aller Plattengerätegruppen entfernt wurde.
Der Befehl gibt keine Meldung zurück, wenn der Knoten für keine Plattengerätegruppe mehr als potenzieller Primärknoten geführt wird.
# scconf -pvv | grep "Device group" | grep nodename |
Mit diesem Verfahren entfernen Sie einen Cluster-Knoten aus der Liste der potenziellen Primärknoten einer Solstice DiskSuite/Solaris Volume Manager-Plattengerätegruppe. Wiederholen Sie den metaset-Befehl für jede Plattengerätegruppe, aus der Sie den Knoten entfernen möchten.
Prüfen Sie, ob der Knoten noch ein Mitglied der Plattengerätegruppe ist und es sich bei der Plattengerätegruppe um eine Solstice DiskSuite/Solaris Volume Manager-Plattengerätegruppe handelt.
Der Gerätegruppentyp SDS/SVM zeigt an, dass es sich um eine Solstice DiskSuite/Solaris Volume Manager-Plattengerätegruppe handelt.
phys-schost-1% scconf -pv | grep '(global-galileo)' (global-galileo) Device group type: SDS/SVM (global-galileo) Device group failback enabled: no (global-galileo) Device group node list: phys-schost-1, phys-schost-2 (global-galileo) Diskset name: global-galileo phys-schost-1% |
Bestimmen Sie den aktuellen Primärknoten der Gerätegruppe.
# scstat -D |
Melden Sie sich bei dem Knoten als Superbenutzer an, der die zu ändernde Plattengerätegruppe aktuell besitzt.
Löschen Sie den Hostnamen des Knotens aus der Plattengerätegruppe.
# metaset -s setname -d -h nodelist |
Gibt den Namen der Plattengerätegruppe an.
Löscht die mit -h gekennzeichneten Knoten aus der Plattengerätegruppe.
Entfernt den Knoten aus der Liste der Knoten der Plattengerätegruppe.
Die Aktualisierung kann mehrere Minuten in Anspruch nehmen.
Bei Fehlschlagen dieses Befehls erweitern Sie den Befehl mit der Option -f (Erzwingen).
# metaset -s setname -d -f -h nodelist |
Wiederholen Sie Schritt 4 für jede Plattengerätegruppe, aus der der Knoten als möglicher Primärknoten entfernt wird.
Prüfen Sie, ob der Knoten aus der Plattengerätegruppe entfernt wurde.
Der Name der Plattengerätegruppe entspricht dem mit metaset angegebenen Plattensatznamen.
phys-schost-1% scconf -pv | grep devicegroup Device group node list: phys-schost-1, phys-schost-2 |
Das nachstehende Beispiel zeigt das Entfernen des Hostnamens phys-schost-2 aus einer Plattengerätegruppen-Konfiguration. Bei diesem Beispiel wird phys-schost-2 als potenzieller Primärknoten für die genannte Plattengerätegruppe entfernt. Überprüfen Sie die Entfernung des Knotens mit dem scstat -D-Befehl. Prüfen Sie, ob der entfernte Knoten nicht mehr im Bildschirmtext angezeigt wird.
[Determine the Solstice DiskSuite/Solaris Volume Manager disk device group(2) for the node:] # scconf -pv | grep Device Device group name: dg-schost-1 Device group type: SDS/SVM Device group failback enabled: no Device group node list: phys-schost-1, phys-schost-2 Device group ordered node list: yes Device group diskset name: dg-schost-1 [Determine which node is the current primary for the disk device group:] # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 phys-schost-2 [Become superuser on the node that currently owns the disk device group.] [Remove the hostname from the disk device group:] # metaset -s dg-schost-1 -d -h phys-schost-2 [Verify removal of the node:] phys-schost-1% scconf -pv | grep dg-schost-1 -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 |
Wenn Sie mehr als drei Plattensätze im Cluster erstellen möchten, führen Sie vor der Erstellung der Plattensätze folgende Schritte aus. Führen Sie diese Schritte bei der ersten Installation von Plattensätzen oder beim Hinzufügen weiterer Plattensätze zu einem vollständig konfigurierten Cluster aus.
Stellen Sie sicher, dass der Wert der md_nsets-Variable hoch genug ist. Der Wert sollte die gesamte Anzahl von Plattensätzen, die Sie im Cluster erstellen möchten, aufnehmen können.
Prüfen Sie auf irgendeinem Knoten des Clusters den Wert der Variablen md_nsets in der Datei /kernel/drv/md.conf.
Wenn die Anzahl der Plattensätze im Cluster höher als der vorhandene Wert der Variablen md_nsets minus Eins ist, erhöhen Sie auf jedem Knoten den Wert von md_nsets auf den gewünschten Wert.
Die maximal zulässige Anzahl von Plattensätzen entspricht dem Wert md_nsets abzüglich Eins. Der maximal mögliche Wert von md_nsets beträgt 32.
Stellen Sie sicher, dass die Datei /kernel/drv/md.conf auf allen Knoten des Clusters identisch ist.
Die Nichtbeachtung dieser Richtlinie kann zu schweren Fehlern von Solstice DiskSuite/Solaris Volume Manager und Datenverlusten führen.
Fahren Sie den Cluster von einem Knoten herunter.
# scshutdown -g0 -y |
Booten Sie jeden Knoten des Clusters neu.
SPARC:
ok boot |
x86:
<<< Current Boot Parameters >>> Boot path: /pci@0,0/pci8086,2545@3/pci8086,1460@1d/pci8086,341a@ 7,1/sd@0,0:a Boot args: Type b [file-name] [boot-flags] <ENTER> to boot with options or i <ENTER> to enter boot interpreter or <ENTER> to boot with defaults <<< timeout in 5 seconds >>> Select (b)oot or (i)nterpreter: b |
Führen Sie an jedem Knoten des Clusters den Befehl devfsadm(1M) aus.
Sie können diesen Befehl auf allen Knoten des Clusters gleichzeitig ausführen.
Führen Sie an einem Knoten des Clusters den scgdevs(1M)-Befehl aus.
Überprüfen Sie auf jedem Knoten, ob der scgdevs-Befehl abgeschlossen wurde, bevor Sie versuchen, Plattensätze zu erstellen.
Der Befehl scgdevs ruft sich selbst auf allen Knoten remote auf, auch wenn der Befehl nur von einem Knoten ausgeführt wird. Um festzustellen, ob der Befehl scgdevs fertig verarbeitet wurde, führen Sie folgenden Befehl auf jedem Knoten des Clusters aus.
% ps -ef | grep scgdevs |
Dieses Verfahren gilt nur für das Initialisieren von Platten. Verwenden Sie beim Einkapseln von Platten das unter SPARC: So erstellen Sie eine neue Plattengruppe beim Einkapseln von Platten (VERITAS Volume Manager) beschriebene Verfahren.
Nach dem Hinzufügen der VxVM-Plattengruppe müssen Sie die Plattengerätegruppe registrieren.
Wenn Sie mit VxVM gemeinsam genutzte Plattengruppen für Oracle Parallel Server oder Oracle Real Application Clusters konfigurieren, verwenden Sie die Cluster-Funktionalität von VxVM, die im VERITAS Volume Manager Administrator's Reference Guide beschrieben wird.
Melden Sie sich bei einem beliebigen Cluster-Knoten mit einer realen Verbindung zu den Platten, aus denen die hinzuzufügende Plattengruppe besteht, als Superbenutzer an.
Erstellen Sie die VxVM-Plattengruppe und den -Datenträger.
Erstellen Sie Plattengruppe und Datenträger nach der von Ihnen bevorzugten Methode.
Wenn Sie einen gespiegelten Datenträger konfigurieren, verwenden Sie Dirty Region Logging (DRL), um die Wiederherstellungszeit von Datenträgern nach einem Knotenversagen zu senken. DRL kann jedoch die E/A-Leistung senken.
Die Verfahren zur Durchführung dieses Schritts finden Sie in der VERITAS Volume Manager-Dokumentation.
Registrieren Sie die VxVM-Plattengruppe als Sun Cluster-Plattengerätegruppe.
Siehe SPARC: So registrieren Sie eine Plattengruppe als Plattengerätegruppe (VERITAS Volume Manager).
Registrieren Sie die gemeinsam genutzten Oracle Parallel Server oder Oracle Real Application Clusters-Plattengruppen nicht beim Cluster Framework.
Dieses Verfahren gilt lediglich für das Einkapseln von Platten. Für die Initialisierung von Platten befolgen Sie die Schritte unter SPARC: So erstellen Sie eine neue Plattengruppe beim Initialisieren von Platten (VERITAS Volume Manager) .
Sie können Platten ohne Root zu Sun Cluster-Plattengerätegruppen ändern, indem Sie die Platten als VxVM-Plattengruppen einkapseln und die Plattengruppen dann als Sun Cluster-Plattengerätegruppen registrieren
Das Einkapseln von Platten wird nur bei der ersten Erstellung einer VxVM-Plattengruppe unterstützt. Nachdem eine VxVM-Plattengruppe erstellt und als Sun Cluster-Plattengerätegruppe registriert wurde, sollten der Plattengruppe nur initialisierbare Platten hinzugefügt werden.
Wenn Sie mit VxVM gemeinsam genutzte Plattengruppen für Oracle Parallel Server oder Oracle Real Application Clusters konfigurieren, verwenden Sie die Cluster-Funktionalität von VxVM, die im VERITAS Volume Manager Administrator's Reference Guide beschrieben wird.
Melden Sie sich bei einem beliebigen Cluster-Knoten als Superbenutzer an.
Wenn die einzukapselnde Platte Dateisystemeinträge in der /etc/vfstab-Datei enthält, versichern Sie sich, dass die mount at boot-Option auf no eingestellt ist.
Stellen Sie den Wert wieder auf yes ein, nachdem die Platte eingekapselt und als Sun Cluster-Plattengerätegruppe registriert wurde.
Kapseln Sie die Platten ein.
Zur Einkapselung der Platten verwenden Sie die vxdiskadm-Menüs oder die grafische Benutzeroberfläche. VxVM benötigt zwei freie Partitionen sowie nicht zugewiesene Zylinder am Plattenanfang oder -ende. Für Bereich Zwei muss auch die ganze Platte eingestellt sein. Weitere Informationen finden Sie in der Online-Dokumentation unter vxdiskadm.
Fahren Sie den Knoten herunter, und starten Sie ihn neu.
Der scswitch(1M)-Befehl schaltet alle Ressourcen- und Gerätegruppen vom Primärknoten auf den nächsten bevorzugten Knoten um. Mit shutdown fahren Sie den Knoten herunter und starten ihn neu.
# scswitch -S -h node[,...] # shutdown -g0 -y -i6 |
Schalten Sie bei Bedarf alle Ressourcen- und Gerätegruppen wieder auf den ursprünglichen Knoten um.
Wenn die Ressourcen- und Gerätegruppen am Anfang für ein Failback zurück auf den Primärknoten konfiguriert wurden, ist der letzte Schritt nicht erforderlich.
# scswitch -z -D disk-device-group -h node[,...] # scswitch -z -g resource-group -h node[,...] |
Registrieren Sie die VxVM-Plattengruppe als Sun Cluster-Plattengerätegruppe.
Siehe SPARC: So registrieren Sie eine Plattengruppe als Plattengerätegruppe (VERITAS Volume Manager).
Registrieren Sie die gemeinsam genutzten Oracle Parallel Server oder Oracle Real Application Clusters-Plattengruppen nicht beim Cluster Framework.
Wenn Sie die Option mount at boot in Schritt 2 auf no gesetzt haben, müssen Sie sie auf yes zurücksetzen.
Wenn Sie einer vorhandenen VxVM-Plattengerätegruppe einen neuen Datenträger hinzufügen, führen Sie das Verfahren auf dem Primärknoten der Plattengerätegruppe durch, die online ist.
Nachdem Sie das Volume hinzugefügt haben, müssen Sie die Konfigurationsänderung mithilfe des Verfahrens SPARC: So registrieren Sie Konfigurationsänderungen bei Plattengruppen (VERITAS Volume Manager) registrieren.
Melden Sie sich bei einem beliebigen Cluster-Knoten als Superbenutzer an.
Bestimmen Sie den Primärknoten für die Plattengerätegruppe, der ein neuer Datenträger hinzugefügt werden soll.
# scstat -D |
Bringen Sie die Plattengerätegruppe online, wenn sie offline ist.
# scswitch -z -D disk-device-group -h node[,...] |
Schaltet die angegebene Gerätegruppe um.
Gibt den Namen des Knotens an, auf den die Plattengerätegruppe umgeschaltet wird. Dieser Knoten wird zum neuen Primärknoten.
Erstellen Sie vom Primärknoten (dem die Plattengerätegruppe aktuell unterstützenden Knoten) den VxVM-Datenträger in der Plattengruppe.
Das Verfahren zur Erstellung des VxVM-Datenträgers finden Sie in der VERITAS Volume Manager-Dokumentation.
Registrieren Sie die VxVM-Plattengruppenänderungen zur Aktualisierung des globalen Namensraums.
DPM
SPARC: So registrieren Sie Konfigurationsänderungen bei Plattengruppen (VERITAS Volume Manager).
Sie können eine vorhandene VxVM-Plattengruppe zu einer Sun Cluster-Plattengerätegruppe umwandeln, indem Sie die Plattengruppe auf den aktuellen Knoten importieren und die Plattengruppe dann als Sun Cluster-Plattengerätegruppe registrieren.
Melden Sie sich bei einem beliebigen Cluster-Knoten als Superbenutzer an.
Importieren Sie die VxVM-Plattengruppe auf den aktuellen Knoten.
# vxdg import diskgroup |
Registrieren Sie die VxVM-Plattengruppe als Sun Cluster-Plattengerätegruppe.
Siehe SPARC: So registrieren Sie eine Plattengruppe als Plattengerätegruppe (VERITAS Volume Manager).
Wenn die Registrierung einer Plattengerätegruppe aufgrund eines Unternummernkonflikts mit einer anderen Gruppe fehlschlägt, müssen Sie der neuen Plattengerätegruppe eine neue, noch nicht verwendete Unternummer zuweisen. Nach der Zuweisung der neuen Unternummer wiederholen Sie das Verfahren zum Registrieren der Plattengruppe als Sun Cluster-Plattengerätegruppe.
Melden Sie sich bei einem beliebigen Cluster-Knoten als Superbenutzer an.
Ermitteln Sie die bereits verwendeten Unternummern.
# ls -l /global/.devices/node@nodeid/dev/vx/dsk/* |
Wählen Sie ein anderes, noch nicht verwendetes Vielfaches von 1000 als Basis-Unternummer der neuen Plattengruppe.
Weisen Sie der Plattengruppe die neue Unternummer zu.
# vxdg reminor diskgroup base-minor-number |
Registrieren Sie die VxVM-Plattengruppe als Sun Cluster-Plattengerätegruppe.
Siehe SPARC: So registrieren Sie eine Plattengruppe als Plattengerätegruppe (VERITAS Volume Manager).
In diesem Beispiel werden die Unternummern 16000-16002 und 4000-4001 verwendet. Der Befehl vxdg reminor dient der Zuweisung der Basis-Unternummer 5000 zur neuen Plattengerätegruppe.
# ls -l /global/.devices/node@nodeid/dev/vx/dsk/* /global/.devices/node@nodeid/dev/vx/dsk/dg1 brw------- 1 root root 56,16000 Oct 7 11:32 dg1v1 brw------- 1 root root 56,16001 Oct 7 11:32 dg1v2 brw------- 1 root root 56,16002 Oct 7 11:32 dg1v3 /global/.devices/node@nodeid/dev/vx/dsk/dg2 brw------- 1 root root 56,4000 Oct 7 11:32 dg2v1 brw------- 1 root root 56,4001 Oct 7 11:32 dg2v2 # vxdg reminor dg3 5000 |
Bei diesem Verfahren wird das scsetup(1M)-Dienstprogramm zum Registrieren der zugeordneten VxVM-Plattengruppe als Sun Cluster-Plattengerätegruppe verwendet.
Nachdem eine Plattengerätegruppe beim Cluster registriert wurde, darf eine VxVM-Plattengruppe niemals mit VxVM-Befehlen importiert oder deportiert werden. Wenn Sie an der VxVM-Plattengruppe oder am Volume eine Änderung vornehmen, verwenden Sie das Verfahren SPARC: So registrieren Sie Konfigurationsänderungen bei Plattengruppen (VERITAS Volume Manager), um die Konfigurationsänderungen der Plattengerätegruppe zu registrieren. Dieses Verfahren stellt sicher, dass der globale Namensraum im richtigen Zustand ist.
Folgende Voraussetzungen müssen für das Registrieren einer VxVM-Plattengerätegruppe erfüllt sein:
Superbenutzer-Privileg auf einem Knoten im Cluster.
Der Name der als Plattengerätegruppe zu registrierenden VxVM-Plattengruppe.
Eine bevorzugte Knotenreihenfolge für die Unterstützung der Plattengerätegruppe.
Eine gewünschte Anzahl von Sekundärknoten für die Plattengerätegruppe.
Beim Definieren der Vorrang-Reihenfolge geben Sie auch an, ob die Plattengerätegruppe wieder auf den bevorzugten Knoten umgeschaltet werden soll, wenn dieser ausfällt und später wieder zum Cluster hinzukommt.
Weitere Informationen zu Knotenvorrang und Failback-Optionen finden Sie unterscconf(1M).
Nicht primäre Cluster-Knoten (Spare-Knoten) werden nach der Vorrang-Reihenfolge für die Knoten zu Sekundärknoten. Die Standardanzahl von Sekundärknoten für eine Plattengruppe wird in der Regel auf Eins eingestellt. Diese Standardeinstellung minimiert die Leistungseinbußen durch Primärknoten-Checkpoint-Vorgänge auf mehreren Sekundärknoten während des normalen Betriebs. In einem Vier-Knoten-Cluster werden zum Beispiel standardmäßig ein Primärknoten, ein Sekundärknoten und zwei Spare-Knoten konfiguriert. Siehe auch SPARC: So stellen Sie die gewünschte Anzahl von Sekundärknoten ein (VERITAS Volume Manager).
Melden Sie sich bei einem beliebigen Cluster-Knoten als Superbenutzer an.
Starten Sie das scsetup-Dienstprogramm.
# scsetup |
Das Hauptmenü wird angezeigt.
Um mit VxVM-Plattengerätegruppen zu arbeiten, geben Sie 4 ein (Gerätegruppen und Datenträger).
Das Menü "Gerätegruppen" wird angezeigt.
Um eine VxVM-Plattengruppe zu registrieren, geben Sie 1 ein (VxVM-Plattengruppe als Gerätegruppe registrieren).
Befolgen Sie die Anweisungen, und geben Sie den Namen der VxVM-Plattengruppe ein, die als Sun Cluster-Plattengerätegruppe registriert werden soll.
Wenn Sie VxVM zum Konfigurieren gemeinsam genutzter Plattengruppen für Oracle Parallel Server/Real Application Clusters einsetzen, dürfen Sie die gemeinsam genutzten Plattengruppen nicht beim Cluster Framework registrieren. Verwenden Sie dafür die Cluster-Funktionalität von VxVM, die im VERITAS Volume Manager Administrator's Reference Guide beschrieben wird.
Wenn bei dem Versuch, die Plattengerätegruppe zu registrieren, folgender Fehler auftritt, weisen Sie der Plattengerätegruppe eine neue Unternummer zu.
scconf: Failed to add device group - in use |
Um die Nebenversionsnummer zu ändern, verwenden Sie das Verfahren unter SPARC: So weisen Sie einer Plattengerätegruppe eine neue Unternummer zu (VERITAS Volume Manager). Mithilfe dieses Verfahrens können Sie eine neue Unternummer vergeben, die nicht in Konflikt mit einer von bestehenden Plattengerätegruppen verwendeten Unternummer steht.
Überprüfen Sie, ob die Plattengerätegruppe registriert und online ist.
Wenn die Plattengerätegruppe ordnungsgemäß registriert ist, werden die dazugehörigen Informationen beim Ausführen des folgenden Befehls angezeigt.
# scstat -D |
Wenn Sie Konfigurationsinformationen für VxVM-Plattengruppen oder Datenträger ändern, die beim Cluster registriert sind, müssen Sie die Plattengerätegruppe mit scsetup(1M) synchronisieren. Solche Konfigurationsänderungen beinhalten das Hinzufügen oder Entfernen von Datenträgern sowie das Ändern der Gruppe, des Eigentümers oder der Berechtigungen von vorhandenen Datenträgern. Mit der erneuten Registrierung nach Konfigurationsänderungen wird sichergestellt, dass der globale Namensraum im richtigen Zustand ist. Siehe So aktualisieren Sie den Namensraum globaler Geräte.
Das nachstehende Beispiel zeigt den scconf-Befehl, der beim Registrieren einer VxVM-Plattengerätegruppe (dg) von scsetup generiert wird, und den Überprüfungsschritt. In diesem Beispiel wird davon ausgegangen, dass die VxVM-Plattengruppe und der Datenträger zuvor erstellt worden sind.
# scsetup scconf -a -D type=vxvm,name=dg1,nodelist=phys-schost-1:phys-schost-2 # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg1 phys-schost-1 phys-schost-2 -- Device Group Status -- Device Group Status ------------ ------ Device group status: dg1 Online |
Informationen zum Erstellen eines Cluster-Dateisystems in der VxVM-Plattengerätegruppe finden Sie unter So fügen Sie Cluster-Dateisysteme hinzu .
Bei Problemen mit der Nebenversion gehen Sie wie unter SPARC: So weisen Sie einer Plattengerätegruppe eine neue Unternummer zu (VERITAS Volume Manager) beschrieben vor.
Beim Ändern der Konfigurationsinformationen einer VxVM-Plattengruppe oder eines Datenträgers müssen Sie die Änderungen für die Sun Cluster-Plattengerätegruppe registrieren. Die Registrierung stellt sicher, dass der globale Namensraum im richtigen Zustand ist.
Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an.
Führen Sie das scsetup(1M)-Dienstprogramm aus.
# scsetup |
Das Hauptmenü wird angezeigt.
Um mit VxVM-Plattengerätegruppen zu arbeiten, geben Sie 4 ein (Gerätegruppen und Datenträger).
Das Menü "Gerätegruppen" wird angezeigt.
Um die Konfigurationsänderungen zu registrieren, geben Sie 2 ein (Datenträgerinformationen für eine VxVM-Gerätegruppe synchronisieren).
Befolgen Sie die Anweisungen, und geben Sie die VxVM-Plattengruppe ein, deren Konfiguration geändert wurde.
Das nachstehende Beispiel zeigt den scconf-Befehl, der beim Registrieren einer geänderten VxVM-Plattengerätegruppe (dg1) von scsetup generiert wird. In diesem Beispiel wird davon ausgegangen, dass die VxVM-Plattengruppe und der Datenträger zuvor erstellt worden sind.
# scsetup scconf -c -D name=dg1,sync |
Die Eigenschaft numsecondaries legt die Anzahl der Knoten innerhalb einer Gerätegruppe fest, die die Gruppe verarbeiten können, wenn der Primärknoten fehlschlägt.. Die Standardanzahl von Sekundärknoten für Gerätedienste beträgt Eins. Der Wert kann auf eine beliebige Anzahl zwischen Eins und der Anzahl der betriebsbereiten Anbieterknoten in der Gerätegruppe eingestellt werden, die keine Primärknoten sind.
Diese Einstellung ist ein wichtiger Faktor für das Gleichgewicht zwischen Cluster-Leistung und Verfügbarkeit. Das Erhöhen der gewünschten Anzahl von Sekundärknoten verbessert beispielsweise die Möglichkeit der Plattengruppe, bei mehreren, gleichzeitig im Cluster auftretenden Fehlern in Betrieb zu bleiben. Beim Erhöhen der Anzahl von Sekundärknoten sinkt aber auch die Leistung im normalen Betrieb. Eine kleinere Anzahl von Sekundärknoten führt in der Regel zu einer besseren Leistung, senkt jedoch die Verfügbarkeit. Dabei sichert eine größere Anzahl von Sekundärknoten jedoch nicht immer eine bessere Verfügbarkeit der betroffenen Dateisysteme oder Gerätegruppen. Weitere Informationen finden Sie in Kapitel 3, Schlüsselkonzepte für Systemverwalter und Anwendungsentwickler in Sun Cluster Konzepthandbuch für Solaris OS.
Melden Sie sich bei einem beliebigen Cluster-Knoten als Superbenutzer an.
Führen Sie das scsetup(1M)-Dienstprogramm aus.
# scsetup |
Das Hauptmenü wird angezeigt.
Um mit VxVM-Plattengerätegruppen zu arbeiten, geben Sie 4 ein (Gerätegruppen und Datenträger).
Das Menü "Gerätegruppen" wird angezeigt.
Um die Schlüsseleigenschaften einer Gerätegruppe zu ändern, geben Sie 6 ein (Schlüsseleigenschaften einer Gerätegruppe ändern).
Das Menü zum Ändern der Schlüsseleigenschaften wird angezeigt.
Um die gewünschte Anzahl von Sekundärknoten zu ändern, geben Sie 2 ein (Eigenschaft numsecondaries ändern).
Befolgen Sie die Anweisungen, und geben Sie die gewünschte Anzahl von Sekundärknoten ein, die für die Plattengerätegruppe konfiguriert werden soll. Nach Eingabe eines geeigneten Wertes wird der entsprechende scconf-Befehl ausgeführt. Danach wird ein Protokoll gedruckt und der Benutzer zum vorherigen Menü zurückgeführt.
Validieren Sie die Gerätegruppenkonfiguration mit dem scconf -p-Befehl.
# scconf -p | grep Device Device group name: dg-schost-1 Device group type: VxVM Device group failback enabled: yes Device group node list: phys-schost-1,phys-schost-2, phys-schost-3 Device group ordered node list: yes Device group desired number of secondaries: 1 Device group diskset name: dg-schost-1 |
Wenn Sie Konfigurationsinformationen für VxVM-Plattengruppen oder Datenträger ändern, die beim Cluster registriert sind, müssen Sie die Plattengerätegruppe mit scsetup erneut registrieren. Solche Konfigurationsänderungen beinhalten das Hinzufügen oder Entfernen von Datenträgern sowie das Ändern der Gruppe, des Eigentümers oder der Berechtigungen von vorhandenen Datenträgern. Mit der erneuten Registrierung nach Konfigurationsänderungen wird sichergestellt, dass der globale Namensraum im richtigen Zustand ist. Siehe So aktualisieren Sie den Namensraum globaler Geräte.
Überprüfen Sie den Primärknoten und den Status der Plattengerätegruppe.
# scstat -D |
Das nachstehende Beispiel zeigt den scconf-Befehl, der bei der Konfigurierung der gewünschten Anzahl von Sekundärknoten für eine Gerätegruppe (diskgrp1) von scsetup generiert wird. Weitere Informationen zum Ändern der gewünschten Anzahl von Sekundärknoten nach dem Erstellen einer Gerätegruppe finden Sie unter So ändern Sie die gewünschte Anzahl von Sekundärknoten für eine Gerätegruppe.
# scconf -a -D type=vxvm,name=diskgrp1,nodelist=host1:host2:host3\ ,preferenced=true,failback=enabled,numsecondaries=2 |
Nachdem Sie das Volume aus der Plattengerätegruppe entfernt haben, müssen Sie die Konfigurationsänderungen mithilfe des Verfahrens SPARC: So registrieren Sie Konfigurationsänderungen bei Plattengruppen (VERITAS Volume Manager) registrieren.
Melden Sie sich bei einem beliebigen Cluster-Knoten als Superbenutzer an.
Bestimmen Sie den Primärknoten und den Status der Plattengerätegruppe.
# scstat -D |
Bringen Sie die Plattengerätegruppe online, wenn sie offline ist.
# scswitch -z -D disk-device-group -h node |
Führt die Umschaltung durch.
Gibt die umzuschaltende Gerätegruppe an.
Gibt den Namen des Knotens an, auf den umgeschaltet wird. Dieser Knoten wird zum neuen Primärknoten.
Vom Primärknoten (dem die Plattengerätegruppe aktuell unterstützenden Knoten) entfernen Sie den VxVM-Datenträger aus der Plattengruppe.
# vxedit -g diskgroup -rf rm volume |
Gibt die VxVM-Plattengruppe an, die den Datenträger enthält.
Entfernt den angegebenen Datenträger. Die Option -r macht die Operation rekursiv. Die Option -f ist zum Entfernen eines aktivierten Volumes erforderlich.
Registrieren Sie die Konfigurationsänderungen der Plattengerätegruppe, um den globalen Namensraum zu aktualisieren, mit scsetup(1M).
Siehe SPARC: So registrieren Sie Konfigurationsänderungen bei Plattengruppen (VERITAS Volume Manager).
Beim Entfernen einer Sun Cluster-Plattengerätegruppe wird die entsprechende VxVM-Plattengruppe deportiert, aber nicht zerstört. Die VxVM-Plattengruppe ist zwar immer noch vorhanden, kann jedoch nicht im Cluster eingesetzt werden, bis sie erneut registriert wird.
Für dieses Verfahren wird das scsetup(1M)-Dienstprogramm verwendet, um eine VxVM-Plattengruppe zu entfernen und sie als Sun Cluster -Plattengerätegruppe zu deregistrieren.
Melden Sie sich bei einem beliebigen Cluster-Knoten als Superbenutzer an.
Nehmen Sie die Plattengerätegruppe offline.
# scswitch -F -D disk-device-group |
Nimmt die Plattengerätegruppe offline.
Gibt die Plattengerätegruppe an, die offline genommen werden soll.
Starten Sie das scsetup-Dienstprogramm.
Das Hauptmenü wird angezeigt.
# scsetup |
Um mit VxVM-Gerätegruppen zu arbeiten, geben Sie 4 ein (Gerätegruppen und Datenträger).
Das Menü "Gerätegruppen" wird angezeigt.
Um eine VxVM-Plattengruppe zu deregistrieren, geben Sie 3 ein (Registrierung einer VxVM-Gerätegruppe aufheben).
Befolgen Sie die Anweisungen, und geben Sie die VxVM-Plattengruppe ein, die deregistriert werden soll.
Das nachstehende Beispiel zeigt die offline genommene VxVM-Plattengerätegruppe dg1 und den von scsetup beim Entfernen und Deregistrieren generierten scconf-Befehl.
# scswitch -F -D dg1 # scsetup scconf -r -D name=dg1 |
Dieses Verfahren fügt mit dem scsetup(1M)-Dienstprogramm einer Plattengerätegruppe einen Knoten hinzu.
Folgende Voraussetzungen müssen erfüllt sein, um einer VxVM-Plattengerätegruppe einen Knoten hinzuzufügen:
Superbenutzer-Privileg auf einem Knoten im Cluster
Der Name der VxVM-Plattengerätegruppe, um den Knoten der Gruppe hinzuzufügen
Der Name oder die Knoten-ID des hinzuzufügenden Knotens
Melden Sie sich bei einem beliebigen Cluster-Knoten als Superbenutzer an.
Geben Sie an der Eingabeaufforderung den scsetup-Befehl ein.
# scsetup |
Das Hauptmenü wird angezeigt.
Um mit VxVM-Plattengerätegruppen zu arbeiten, geben Sie 4 ein (Gerätegruppen und Datenträger).
Das Menü "Gerätegruppen" wird angezeigt.
Um einer VxVM-Plattengerätegruppe einen Knoten hinzuzufügen, geben Sie 4 ein (Einer VxVM-Gerätegruppe einen Knoten hinzufügen).
Befolgen Sie die Anweisungen, und geben Sie Gerätegruppen- und Knotenname ein.
Überprüfen Sie, ob der Knoten hinzugefügt wurde.
Zeigen Sie die Gerätegruppeninformationen der neuen Platte mithilfe des folgenden Befehls an.
# scconf -p |
Das nachstehende Beispiel zeigt den scconf-Befehl, der von scsetup generiert wird, wenn ein Knoten (phys-schost-3 ) einer VxVM-Plattengerätegruppe (dg1 ) hinzugefügt wird, sowie den Überprüfungsschritt.
# scsetup scconf a D type=vxvm,name=dg1,nodelist=phys-schost-3 # scconf -p Gerätegruppenname: dg1 Gerätegruppentyp: VXVM Gerätegruppen-Failback aktiviert: yes Gerätegruppen-Knotenliste: phys-schost-1, phys-schost-3 |
Mit diesem Verfahren entfernen Sie einen Cluster-Knoten aus der Liste der potenziellen Primärknoten für eine VERITAS Volume Manager (VxVM)-Plattengerätegruppe (-Plattengruppe).
Überprüfen Sie, ob der Knoten noch Mitglied der Gruppe ist und es sich bei der Gruppe um eine VxVM-Gerätegruppe handelt.
Der Gerätegruppentyp VxVM zeigt an, dass es sich um eine VxVM-Plattengerätegruppe handelt.
phys-schost-1% scconf -pv | grep '(global-galileo)' (global-galileo) Device group type: VxVM (global-galileo) Device group failback enabled: no (global-galileo) Device group node list: phys-schost-1, phys-schost-2 (global-galileo) Diskset name: global-galileo phys-schost-1% |
Melden Sie sich bei dem aktuellen Cluster-Mitgliedknoten als Superbenutzer an.
Führen Sie den scsetup(1M)-Befehl aus.
# scsetup |
Das Hauptmenü wird angezeigt.
Um eine Plattengruppe zu rekonfigurieren, geben Sie 4 ein (Gerätegruppen und Datenträger).
Um den Knoten aus der VxVM-Plattengerätegruppe zu entfernen, geben Sie 5 ein (Knoten aus einer VxVM-Gerätegruppe entfernen).
Befolgen Sie die Eingabeaufforderungen, um den Cluster-Knoten aus der Plattengerätegruppe zu entfernen. Folgende Informationen werden von Ihnen angefordert:
VxVM-Gerätegruppe
Knotenname
Überprüfen Sie, ob der Knoten aus der (den) VxVM-Plattengerätegruppe(n) entfernt wurde.
# scconf -p | grep Device |
Dieses Beispiel zeigt das Entfernen eines Knotens mit dem Namen phys-schost-1 aus der dg1-VxVM-Plattengerätegruppe.
[Determine the VxVM disk device group for the node:] # scconf -p | grep Device Device group name: dg1 Device group type: VxVM Device group failback enabled: no Device group node list: phys-schost-1, phys-schost-2 Device group diskset name: dg1 [Become superuser and execute the scsetup utility:] # scsetup Select Device groups and volumes>Remove a node from a VxVM device group. Answer the questions when prompted. You will need the following information. You Will Need: Example: VxVM device group name dg1 node names phys-schost-1 [Verify that the scconf command executed properly:] scconf -r -D name=dg1,nodelist=phys-schost-1 Command completed successfully. Quit the scsetupDevice Groups Menu and Main Menu. [Verify that the node was removed:] # scconf -p | grep Device Device group name: dg1 Device group type: VxVM Device group failback enabled: no Device group node list: phys-schost-2 Device group diskset name: dg1 |
Mit diesem Verfahren entfernen Sie einen Cluster-Knoten aus der Liste der potenziellen Primärknoten für eine VERITAS Volume Manager (VxVM)-Plattengerätegruppe (-Plattengruppe).
Verwenden Sie dieses Verfahren, um einen Cluster-Knoten aus der Liste der potenziellen Primärknoten für eine im raw-Modus betriebene Plattengerätegruppe zu entfernen.
Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an, der nicht der zu entfernende Knoten ist.
Identifizieren Sie die Plattengerätegruppen, die mit dem zu entfernenden Knoten verbunden sind.
Suchen Sie den Knotennamen im Device group node list-Eintrag.
# scconf -pvv | grep nodename | grep "Device group node list" |
Bestimmen Sie, welche der in Schritt 2 identifizierten Plattengerätegruppen im raw-Modus betrieben werden.
Im raw-Modus betriebene Plattengerätegruppen gehören zum Disk- oder Local_Disk-Gerätegruppentyp.
# scconf -pvv | grep group-type |
Deaktivieren Sie die localonly-Eigenschaft für jede im raw-Modus betriebene Local_Disk-Gerätegruppe.
# scconf -c -D name=rawdisk-device-group,localonly=false |
Weitere Informationen zur Eigenschaft localonly finden Sie in der Online-Dokumentation unter scconf_dg_rawdisk(1M).
Überprüfen Sie, ob Sie die localonly-Eigenschaft für alle im raw-Modus betriebenen Plattengerätegruppen deaktiviert haben, die an den zu entfernenden Knoten angeschlossen sind.
Der Disk-Gerätegruppentyp zeigt an, dass die localonly-Eigenschaft für diese im raw-Modus betriebene Plattengerätegruppe deaktiviert wurde.
# scconf -pvv | grep group-type |
Entfernen Sie den Knoten aus allen im raw-Modus betriebenen Plattengerätegruppen, die in Schritt 3 ermittelt wurden.
Diesen Schritt müssen Sie für jede im raw-Modus betriebene Plattengerätegruppe ausführen, die mit dem zu entfernenden Knoten verbunden ist.
# scconf -r -D name=rawdisk-device-group,nodelist=nodename |
Dieses Beispiel zeigt das Entfernen eines Knotens (phys-schost-2) aus einer im raw-Modus betriebenen Plattengerätegruppe. Alle Befehle werden von einem anderen Knoten im Cluster durchgeführt (phys-schost-1).
[Identify the disk device groups connected to the node being removed:] phys-schost-1# scconf -pvv | grep phys-schost-2 | grep "Device group node list" (dsk/d4) Device group node list: phys-schost-2 (dsk/d2) Device group node list: phys-schost-1, phys-schost-2 (dsk/d1) Device group node list: phys-schost-1, phys-schost-2 [Identify the raw disk device groups:] phys-schost-1# scconf -pvv | grep Disk (dsk/d4) Device group type: Local_Disk (dsk/d8) Device group type: Local_Disk [Disable the localonly flag for each local disk on the node:] phys-schost-1# scconf -c -D name=dsk/d4,localonly=false [Verify that the localonly flag is disabled:] phys-schost-1# scconf -pvv | grep Disk (dsk/d4) Device group type: Disk (dsk/d8) Device group type: Local_Disk [Remove the node from all raw disk device groups:] phys-schost-1# scconf -r -D name=dsk/d4,nodelist=phys-schost-2 phys-schost-1# scconf -r -D name=dsk/d2,nodelist=phys-schost-2 phys-schost-1# scconf -r -D name=dsk/d1,nodelist=phys-schost-2 |
Die Methode zur Erstellung der Primäreigentümerschaft einer Plattengerätegrupe basiert auf der Einstellung eines Eigentümerattributs namens preferenced. Wird das Attribut nicht eingestellt, ist der Primäreigentümer einer ansonsten eigentümerlosen Plattengerätegruppe der erste Knoten, der auf eine Platte in dieser Gruppe zuzugreifen versucht. Wenn dieses Attribut jedoch eingestellt ist, müssen Sie die bevorzugte Reihenfolge angeben, in der die Knoten versuchen, die Eigentümerschaft zu übernehmen.
Beim Deaktivieren des preferenced-Attributs wird automatisch auch das failback-Attribut deaktiviert. Wenn Sie dagegen das preferenced-Attribut aktivieren oder wieder aktivieren, können Sie das failback-Attribut wahlweise aktivieren oder deaktivieren.
Ist das preferenced-Attribut aktiviert oder wieder aktiviert, werden Sie aufgefordert, die Reihenfolge der Knoten in der Liste der primären Eigentümerschaft wieder festzulegen.
Bei diesem Verfahren wird scsetup(1M) zum Einstellen oder Aufheben des preferenced-Attributs und des failback-Attributs für Solstice DiskSuite/Solaris Volume Manager- oder VxVM-Plattengerätegruppen verwendet.
Um dieses Verfahren auszuführen, benötigen Sie den Namen der Plattengerätegruppe, deren Attributwerte Sie ändern.
Melden Sie sich bei einem beliebigen Cluster-Knoten als Superbenutzer an.
Führen Sie den scsetup-Befehl aus.
Das Hauptmenü wird angezeigt.
# scsetup |
Um mit Plattengerätegruppen zu arbeiten, geben Sie 4 ein (Gerätegruppen und Datenträger).
Das Menü "Gerätegruppen" wird angezeigt.
Um die Schlüsseleigenschaften einer Gerätegruppe zu ändern, geben Sie 6 ein (Schlüsseleigenschaften einer VxVM- oder Solstice DiskSuite/Solaris Volume Manager-Gerätegruppe ändern).
Das Menü zum Ändern der Schlüsseleigenschaften wird angezeigt.
Um eine Gerätegruppeneigenschaft zu ändern, geben Sie 1 ein (Preferenced- und/oder Failback-Eigenschaften ändern).
Befolgen Sie die Anweisungen, um die Optionen preferenced und failback für eine Gerätegruppe einzustellen.
Überprüfen Sie, ob die Attribute für die Plattengerätegruppen geändert wurden.
Zeigen Sie die Gerätegruppeninformationen mithilfe des folgenden Befehls an.
# scconf -p |
Das nachstehende Beispiel zeigt den scconf-Befehl, der von scsetup beim Einstellen der Attributwerte für eine Plattengerätegruppe (dg-schost-1) generiert wird.
# scconf -c -Dname=dg-schost-1,nodelist=phys-schost-1:phys-schost-2, \ preferenced=true,failback=enabled,numsecondaries=1 # scconf -p | grep Device Device group name: dg-schost-1 Device group type: SDS Device group failback enabled: yes Device group node list: phys-schost-1, phys-schost-2 Device group ordered node list: yes Device group desired number of secondaries: 1 Device group diskset name: dg-schost-1 |
Die Standardanzahl von Sekundärknoten für eine Gerätegruppe ist auf Eins eingestellt. Diese Einstellung gibt die Anzahl der Knoten innerhalb einer Gerätegruppe an, die bei einem Versagen des Primärknotens zum primären Eigentümer der Gruppe werden können. Der Wert für die gewünschte Anzahl von Sekundärknoten kann auf jede beliebige Ganzzahl zwischen Eins und der Anzahl der Anbieterknoten in der Gerätegruppe eingestellt werden, die keine Primärknoten sind.
Bei einer Änderung der numsecondaries-Eigenschaft werden der Gerätegruppe Sekundärknoten hinzugefügt oder sie werden aus der Gruppe entfernt, wenn die Änderung zu einer Unstimmigkeit zwischen der tatsächlichen und der gewünschten Anzahl von Sekundärknoten führt.
Bei diesem Verfahren wird scsetup(1M) zum Einstellen und Aufheben der numsecondaries-Eigenschaft für Solstice DiskSuite/Solaris Volume Manager- oder VxVM-Plattengerätegruppen eingesetzt. Weitere Informationen zu den Plattengerätegruppenoptionen beim Konfigurieren einer Gerätegruppe finden Sie unter scconf_dg_rawdisk(1M), scconf_dg_sds(1M), scconf_dg_svm(1M) und scconf_dg_vxvm(1M).
Melden Sie sich bei einem beliebigen Cluster-Knoten als Superbenutzer an.
Führen Sie das scsetup-Dienstprogramm aus.
# scsetup |
Das Hauptmenü wird angezeigt.
Wenn Sie mit Plattengerätegruppen arbeiten möchten, geben Sie 5 ein (Gerätegruppen und Volumes).
Das Menü "Gerätegruppen" wird angezeigt.
Um die Schlüsseleigenschaften einer Gerätegruppe zu ändern, geben Sie 6 ein (Schlüsseleigenschaften einer Gerätegruppe ändern).
Das Menü zum Ändern der Schlüsseleigenschaften wird angezeigt.
Um die gewünschte Anzahl von Sekundärknoten zu ändern, geben Sie 2 ein (Eigenschaft numsecondaries ändern).
Befolgen Sie die Anweisungen, und geben Sie die gewünschte Anzahl von Sekundärknoten ein, die für die Plattengerätegruppe konfiguriert werden soll. Nach der Eingabe eines passenden Wertes wird der entsprechende scconf-Befehl ausgeführt, ein Protokoll gedruckt, und der Benutzer kehrt zum vorherigen Menü zurück.
Überprüfen Sie, ob das Attribut für die Plattengerätegruppe geändert worden ist.
Zeigen Sie die Gerätegruppeninformationen mithilfe des folgenden Befehls an.
# scconf -p |
Das nachstehende Beispiel zeigt den scconf-Befehl, der von scsetup beim Konfigurieren der gewünschten Anzahl von Sekundärknoten für eine Gerätegruppe (dg-schost-1) generiert wird. Bei diesem Beispiel wird davon ausgegangen, dass die Plattengruppe und der Datenträger zuvor erstellt worden sind.
# scconf -c -D name=phys-host-1,nodelist=phys-schost-1:phys-schost-2,phys-schost-3 \ preferenced=true,failback=enabled,numsecondaries=1 # scconf -p | grep Device Device group name: dg-schost-1 Device group type: SDS/SVM Device group failback enabled: yes Device group node list: phys-schost-1, phys-scost-2, phys-schost-3 Device group ordered node list: yes Device group desired number of secondaries: 1 Device group diskset name: dg-schost-1 |
Das nachstehende Beispiel zeigt die Verwendung eines leeren Zeichenkettenwerts zum Konfigurieren der Standardanzahl von Sekundärknoten. Die Gerätegruppe wird zur Verwendung des Standardwertes konfiguriert, selbst wenn sich der Standardwert ändert.
# scconf -c -D name=diskgrp1, nodelist=host1:host2:host3, \ preferenced=false,failback=enabled,numsecondaries= # scconf -p | grep Device Device group name: dg-schost-1 Device group type: SDS/SVM Device group failback enabled: yes Device group node list: phys-schost-1, phost-2, phys-schost-3 Device group ordered node list: yes Device group desired number of secondaries: 1 Device group diskset name: dg-schost-1 |
Sie müssen kein Superuser sein, um die Konfiguration aufzulisten.
Verwenden Sie die in der folgenden Liste beschriebene Methode.
Verwenden Sie die grafische Benutzeroberfläche von SunPlex-Manager.
Weitere Informationen finden Sie in der Online-Hilfe zu SunPlex-Manager.
Mit scstat(1M) listen Sie die Plattengerätegruppenkonfiguration auf.
% scstat -D |
Mit scconf(1M) listen Sie die Plattengerätekonfiguration auf.
% scconf -p |
Mit dem scstat -D-Befehl werden folgende Informationen angezeigt.
-- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: phys-schost-2 - - Device group servers: phys-schost-1 phys-schost-2 phys-schost-3 Device group servers: phys-schost-3 - - -- Device Group Status -- Device Group Status ------------ ------ Device group status: phys-schost-2 Offline Device group status: phys-schost-1 Online Device group status: phys-schost-3 Offline |
Mit dem scconf-Befehl suchen Sie die unter den Gerätegruppen angezeigten Informationen.
# scconf -p ... Device group name: dg-schost-1 Device group type: SDS/SVM Device group failback enabled: yes Device group node list: phys-schost-2, phys-schost-3 Device group diskset name: dg-schost-1 |
Dieses Verfahren kann auch zum Starten (Online-bringen) einer inaktiven Gerätegruppe verwendet werden.
Sie können auch mit der grafischen Benutzeroberfläche von SunPlex-Manager eine inaktive Gerätegruppe online bringen oder den Primärknoten einer Gerätegruppe umschalten. Weitere Informationen finden Sie in der Online-Hilfe zu SunPlex-Manager.
Melden Sie sich bei einem beliebigen Cluster-Knoten als Superbenutzer an.
Mit scswitch(1M) schalten Sie den Primärknoten der Plattengerätegruppe um.
# scswitch -z -D disk-device-group -h node |
Führt die Umschaltung durch.
Gibt die umzuschaltende Gerätegruppe an.
Gibt den Namen des Knotens an, auf den umgeschaltet wird. Dieser Knoten wird zum neuen Primärknoten.
Überprüfen Sie, ob die Plattengerätegruppe auf den neuen Primärknoten umgeschaltet wurde.
Wenn die Plattengerätegruppe ordnungsgemäß registriert ist, werden die dazugehörigen Informationen beim Ausführen des folgenden Befehls angezeigt.
# scstat -D |
Das nachstehende Beispiel zeigt das Umschalten des Primärknotens für eine Plattengerätegruppe und die Überprüfung der Änderung.
# scswitch -z -D dg-schost-1 -h phys-schost-1 # scstat -D -- Device Group Servers -- Device Group Primary Secondary ------------ ------- --------- Device group servers: dg-schost-1 phys-schost-1 phys-schost-2 -- Device Group Status -- Device Group Status ------------ ------ Device group status: dg-schost-1 Online |
Durch das Versetzen eines Geräts in den Wartungszustand wird die Gerätegruppe nicht mehr automatisch online gebracht, sobald auf eines der dazugehörigen Geräte zugegriffen wird. Sie sollten ein Gerät für Reparaturarbeiten, bei denen alle E/O-Aktivitäten bis Reparaturende stillgelegt sein müssen, in Wartungszustand versetzen. Das Versetzen einer Gerätegruppe in Wartungszustand schützt auch vor Datenverlusten, weil damit sichergestellt wird, dass eine Plattengerätegruppe nicht auf einem Knoten online gebracht und der Plattensatz oder die Plattengruppe gleichzeitig auf einem anderen Knoten repariert wird.
Bevor eine Gerätegruppe in Wartungszustand versetzt werden kann, müssen alle Zugriffe auf die dazugehörigen Geräte gestoppt und alle abhängigen Dateisysteme ausgehängt werden.
Versetzen Sie die Gerätegruppe in Wartungszustand.
# scswitch -m -D disk-device-group |
Ist für die zu erfolgende Reparatur die Eigentümerschaft eines Plattensatzes oder einer Plattengruppe erforderlich, importieren Sie diesen Plattensatz bzw. die Plattengruppe manuell.
Für Solstice DiskSuite/Solaris Volume Manager:
# metaset -C take -f -s diskset |
Beim Übernehmen der Eigentümerschaft eines Solstice DiskSuite/Solaris Volume Manager-Plattensatzes müssent Sie für eine Gerätegruppe im Wartungszustand den Befehl metaset -C take verwenden. Mit dem metaset -t-Befehl bringen Sie die Gerätegruppe im Rahmen der Übernahme der Eigentümerschaft online. Beim Importieren einer VxVM-Plattengruppe muss das -t-Flag verwendet werden. Damit wird verhindert, dass die Plattengruppe beim Neubooten dieses Knotens automatisch importiert wird.
Für VERITAS Volume Manager:
# vxdg -t import disk-group-name |
Bringen Sie das erforderliche Reparaturverfahren zu Ende.
Beenden Sie die Eigentümerschaft am Plattensatz oder an der Plattengruppe.
Bevor Sie den Wartungszustand für die Plattengerätegruppe aufheben, müssen Sie die Eigentümerschaft am Plattensatz oder an der Plattengruppe beenden. Wenn Sie das nicht tun, kann es zu einem Datenverlust kommen.
Für Solstice DiskSuite/Solaris Volume Manager:
# metaset -C release -s diskset |
Für VERITAS Volume Manager:
# vxdg deport disk-group-name |
Bringen Sie die Plattengerätegruppe online.
# scswitch -z -D disk-device-group -h node |
Dieses Beispiel zeigt das Versetzen der Plattengerätegruppe dg-schost-1in Wartungszustand und das Aufheben des Wartungszustandes für diese Gruppe.
[Place the disk device group in maintenance state.] # scswitch -m -D dg-schost-1 [If needed, manually import the disk set or disk group.] For Solstice DiskSuite/Solaris Volume Manager: # metaset -C take -f -s dg-schost-1 For VERITAS Volume Manager: # vxdg -t import dg1 [Complete all necessary repair procedures.] [Release ownership.] For Solstice DiskSuite/Solaris Volume Manager: # metaset -C release -s dg-schost-1 For VERITAS Volume Manager: # vxdg deport dg1 [Bring the disk device group online.] # scswitch -z -D dg-schost-1 -h phys-schost-1 |
Das Cluster-Dateisystem ist ein global verfügbares Dateisystem mit Lese- und Schreibzugriff von jedem beliebigen Knoten im Cluster aus.
Tabelle 4–3 Task Map: Verwalten von Cluster-Dateisystemen
Schritt |
Anweisungen siehe… |
---|---|
Hinzufügen von Cluster-Dateisystemen nach der ersten Sun Cluster-Installation - Verwenden Sie newfs(1M) und mkdir | |
Entfernen eines Cluster-Dateisystems - Verwenden Sie fuser(1M) und umount(1M) | |
Überprüfen globaler Einhängepunkte in einem Cluster im Hinblick auf die Konsistenz auf allen Knoten - Verwenden Sie sccheck(1M) |
Führen Sie diese Aufgabe für jedes nach der ersten Sun Cluster-Installation erstellte Cluster-Dateisystem durch.
Vergewissern Sie sich, den korrekten Plattengerätenamen anzugeben. Das Erstellen eines Cluster-Dateisystems zerstört alle auf den Platten vorhandenen Daten. Wenn Sie einen falschen Gerätenamen angeben, löschen Sie Daten, die Sie möglicherweise nicht löschen möchten.
Folgende Voraussetzungen müssen erfüllt sein, um ein weiteres Cluster-Dateisystem hinzuzufügen:
Superbenutzer-Privileg auf einem Knoten im Cluster.
Eine Datenträgerverwaltungs-Software muss auf dem Cluster installiert und konfiguriert sein.
Es muss eine Gerätegruppe (Solstice DiskSuite/Solaris Volume Manager-Gerätegruppe oder VxVM-Gerätegruppe) oder ein im Blockmodus betriebener Plattenbereich vorhanden sein, auf dem das Cluster-Dateisystem erstellt werden kann.
Wenn Sie Datendienste mit SunPlex-Manger installiert haben, gibt es bereits ein oder mehrere Dateisystem(e), wenn genügend gemeinsam genutzte Platten zum Erstellen der Cluster-Dateisysteme vorhanden waren.
Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an.
Um die Dateisystemerstellung zu beschleunigen, melden Sie sich als Superbenutzer beim aktuellen Primärknoten des globalen Geräts an, für das Sie ein Dateisystem erstellen.
Erstellen Sie das Dateisystem mit dem newfs-Befehl.
Der newfs-Befehl gilt nur für die Erstellung neuer UFS-Dateisysteme. Um ein neues VxFS-Dateisystem zu erstellen, führen Sie die in Ihrer VxFS-Dokumentation beschriebenen Verfahren durch.
# newfs raw-disk-device |
Folgende Tabelle zeigt Beispiele für Namen des Arguments raw-disk-device. Beachten Sie, dass die Benennungskonventionen bei jedem Datenträger-Manager unterschiedlich sind.
Mit dem Datenträger-Manager … |
Ist der Gerätename beispielsweise … |
Beschreibung |
---|---|---|
Solstice DiskSuite/Solaris Volume Manager |
/dev/md/oracle/rdsk/d1 |
Im raw-Modus betriebenes Plattengerät d1 innerhalb des Plattensatzes oracle. |
SPARC: VERITAS Volume Manager |
/dev/vx/rdsk/oradg/vol01 |
Im raw-Modus betriebenes Plattengerät vol01 innerhalb der Plattengruppe oradg. |
Keine |
/dev/global/rdsk/d1s3 |
Im raw-Modus betriebenes Plattengerät für den im Blockmodus betriebenen Plattenbereich d1s3. |
Erstellen Sie auf jedem Knoten im Cluster ein Einhängepunktverzeichnis für das Cluster-Dateisystem.
Ein Einhängepunkt ist auf jedem Knoten erforderlich, auch wenn von diesem Knoten nicht auf das Cluster-Dateisystem zugegriffen wird.
Erstellen Sie zur einfacheren Verwaltung den Einhängepunkt im Verzeichnis /global/device-group. Die Verwendung dieses Speicherorts ermöglicht Ihnen, global verfügbare Cluster-Dateisysteme von lokalen Dateisystemen leicht zu unterscheiden.
# mkdir -p /global/device-group mountpoint |
Name des Verzeichnisses, das dem Namen der Gerätegruppe entspricht, die das Gerät enthält.
Name des Verzeichnisses, in dem das Cluster-Dateisystem eingehängt werden soll.
Fügen Sie der /etc/vfstab-Datei auf jedem Knoten im Cluster einen Eintrag für den Einhängepunkt hinzu.
Verwenden Sie die folgenden erforderlichen Einhängeoptionen.
Protokollierung ist für alle Cluster-Dateisysteme erforderlich.
Solaris UFS-Protokollierung – Verwenden Sie die global,logging-Einhängeoptionen. Weitere Informationen zu UFS-Einhängeoptionen finden Sie in der Online-Dokumentation unter mount_ufs(1M).
Die Einhängeoption syncdir ist für UFS-Cluster-Dateisysteme nicht erforderlich. Wenn Sie syncdir angeben, ist das Dateisystemverhalten garantiert POSIX-konform. Andernfalls verhält sich das System wie ein UFS-Dateisystem. Wenn Sie syncdir nicht angeben, kann die Schreibleistung bei der Zuweisung von Plattenblöcken, wie zum Beispiel dem Anhängen von Daten an eine Datei, signifikant verbessert werden. In einigen Fällen würden Sie jedoch eine Überschreitung des verfügbaren Speicherplatzes ohne syncdir erst beim Schließen der Datei feststellen. Es gibt nur wenige Fälle, in denen durch die Nichtangabe von syncdir Probleme auftreten können. Mit syncdir (und POSIX-Verhalten) wird die Bedingung von nicht ausreichendem Speicherplatz vor dem Schließen bemerkt.
Solstice DiskSuite/Solaris Volume Manager Transaktions-Metagerät oder Transaktions-Datenträger – Verwenden Sie die global-Einhängeoption (verwenden Sie nicht die logging-Einhängeoption). Informationen zum Konfigurieren von Transaktions-Metageräten und Transaktions-Datenträgern finden Sie in Ihrer Solstice DiskSuite/Solaris Volume Manager-Dokumentation.
Es ist geplant, Transaktions-Datenträger bei der anstehenden Solaris-Version aus dem Solaris-Betriebssystem zu entfernen. Die seit der Solaris 8-Version verfügbare Solaris-UFS-Protokollierung bietet dieselben Möglichkeiten, zeigt jedoch eine bessere Leistung und geringere Systemverwaltungsanforderungen sowie weniger -aufwand.
VxFS-Protokollierung – Verwenden Sie die Einhängeoptionen global und log. Weitere Informationen finden Sie in der mit der VxFS-Software gelieferten Online-Dokumentation unter mount_vxfs.
Um das Cluster-Dateisystem automatisch einzuhängen, stellen Sie das Feld mount at boot auf yes ein.
Stellen Sie sicher, dass die Informationen für jedes Cluster-Dateisystem auf jedem Knoten im jeweiligen Eintrag /etc/vfstab identisch sind.
Stellen Sie sicher, dass die Einträge in der Datei /etc/vfstab auf jedem Knoten die Geräte in derselben Reihenfolge auflisten.
Prüfen Sie die Abhängigkeiten der Dateisysteme bei der Boot-Reihenfolge.
Betrachten Sie zum Beispiel das Szenario, in dem phys-schost-1 das Plattengerät d0 in /global/oracle und phys-schost-2 das Plattengerät d1 in /global/oracle/logs einhängen. Bei dieser Konfiguration kann phys-schost-2 nur booten und /global/oracle/logs einhängen, nachdem phys-schost-1 gebootet und /global/oracle eingehängt hat.
Einzelheiten finden Sie in der Online-Dokumentation unter vfstab(4).
On any node in the cluster, verify that mount points exist and /etc/vfstab file entries are correct on all nodes of the cluster.
# sccheck |
Wenn keine Fehler vorliegen, wird nichts zurückgegeben.
Hängen Sie das Cluster-Dateisystem von einem Knoten im Cluster ein.
# mount /global/device-group mountpoint |
Überprüfen Sie auf jedem Knoten des Clusters, dass das Cluster-Dateisystem eingehängt ist.
Sie können entweder den df- oder den mount-Befehl zum Auflisten der eingehängten Dateisysteme verwenden.
Führen Sie die Verwaltungsbefehle zur Verwaltung eines VxFS-Cluster-Dateisystems in einer Sun Cluster-Umgebung nur vom Primärknoten aus, auf dem das VxFS-Cluster-Dateisystem eingehängt ist.
Das nachstehende Beispiel erstellt ein UFS-Cluster-Dateisystem auf dem Solstice DiskSuite/Solaris Volume Manager-Metagerät oder /dev/md/oracle/rdsk/d1-Datenträger.
# newfs /dev/md/oracle/rdsk/d1 ... [An jedem Knoten:] # mkdir -p /global/oracle/d1 # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [Speichern und Beenden] [on one node:] # sccheck # mount /dev/md/oracle/dsk/d1 /global/oracle/d1 # mount ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles on Sun Oct 3 08:56:16 2001 |
Sie entfernen ein Cluster-Dateisystem einfach dadurch, dass Sie es aushängen. Wenn Sie auch die Daten entfernen oder löschen möchten, entfernen Sie das entsprechende Plattengerät (Metagerät, Datenträger) aus dem System.
Cluster-Dateisysteme werden automatisch beim Herunterfahren des Systems ausgehängt, wenn Sie scshutdown(1M) zum Stoppen des ganzen Clusters ausführen. Ein Cluster-Dateisystem wird nicht ausgehängt, wenn Sie shutdown ausführen, um einen einzelnen Knoten zu stoppen. Ist der heruntergefahrene Knoten jedoch der einzige Knoten mit einer Verbindung zur Platte, führt jeder Zugriffsversuch auf das Cluster-Dateisystem auf dieser Platte zu einem Fehler.
Folgende Voraussetzungen müssen zum Aushängen des Cluster-Dateisystems erfüllt sein:
Superbenutzer-Privileg auf einem Knoten im Cluster.
Das Datei-System darf nicht belegt sein. Ein Dateisystem gilt als belegt, wenn sich ein Benutzer in einem Verzeichnis des Dateisystems befindet oder ein Programm eine Datei in diesem Dateisystem geöffnet hat. Der Benutzer bzw. das Programm kann auf jedem beliebigen Knoten des Clusters sein bzw. ausgeführt werden.
Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an.
Bestimmen Sie, welche Cluster-Dateisysteme eingehängt sind.
# mount -v |
Listen Sie auf jedem Knoten alle Prozesse auf, die das Cluster-Dateisystem verwenden. Dadurch wissen Sie, welche Prozesse Sie stoppen.
# fuser -c [ -u ] mountpoint |
Gibt die Dateien zurück, die Einhängepunkte für Dateisysteme sind, und alle Dateien innerhalb dieser eingehängten Dateisysteme.
(Optional) Zeigt den jeder Prozess-ID entsprechenden Benutzer-Anmeldenamen an.
Gibt den Namen des Cluster-Dateisystems an, für das Sie Prozesse stoppen möchten.
Stoppen Sie alle Prozesse des Cluster-Dateisystems auf jedem Knoten.
Zum Stoppen der Prozesse verwenden Sie die von Ihnen bevorzugte Methode. Arbeiten Sie bei Bedarf mit folgendem Befehl, um das Stoppen aller dem Cluster-Dateisystem zugeordneten Prozesse zu erzwingen.
# fuser -c -k mountpoint |
Ein SIGKILL wird an jeden Prozess gesendet, der das Cluster-Dateisystem nutzt.
Überprüfen Sie auf jedem Knoten, ob das Dateisystem tatsächlich von keinem Prozess mehr genutzt wird.
# fuser -c mountpoint |
Hängen Sie von einem einzigen Knoten das Dateisystem aus.
# umount mountpoint |
Gibt den Namen des auszuhängenden Cluster-Dateisystems an. Dabei kann es sich entweder um den Namen des Verzeichnisses handeln, in dem das Cluster-Dateisystem eingehängt ist, oder um den Gerätenamenpfad des Dateisystems.
(Optional) Bearbeiten Sie die /etc/vfstab-Datei, und löschen Sie den Eintrag für das Cluster-Dateisystem, das entfernt wird.
Führen Sie diesen Schritt auf jedem Cluster-Knoten durch, der einen Eintrag für dieses Cluster-Dateisystem in seiner /etc/vfstab-Datei enthält.
(Optional) Entfernen Sie das Plattengerät group/metadevice/volume/plex .
Weitere Informationen finden Sie in Ihrer Datenträger-Manager-Dokumentation.
Im folgenden Beispiel wird ein UFS-Cluster-Dateisystem entfernt, das auf dem Solstice DiskSuite/Solaris Volume Manager-Metagerät oder -Datenträger /dev/md/oracle/rdsk/d1 eingehängt ist.
# mount -v ... /global/oracle/d1 on /dev/md/oracle/dsk/d1 read/write/setuid/global/logging/largefiles # fuser -c /global/oracle/d1 /global/oracle/d1: 4006c # fuser -c -k /global/oracle/d1 /global/oracle/d1: 4006c # fuser -c /global/oracle/d1 /global/oracle/d1: # umount /global/oracle/d1 (on each node, remove the highlighted entry:) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/oracle/dsk/d1 /dev/md/oracle/rdsk/d1 /global/oracle/d1 ufs 2 yes global,logging [Save and exit.] |
Entfernen Sie das entsprechende Gerät, wenn Sie die Daten aus dem Cluster-Dateisystem entfernen möchten. Weitere Informationen finden Sie in Ihrer Datenträger-Manager-Dokumentation.
Das sccheck(1M)-Dienstprogramm prüft die Syntax der Einträge für Cluster-Dateisysteme in der /etc/vfstab-Datei. Wenn keine Fehler vorliegen, wird nichts zurückgegeben.
Führen Sie nach Konfigurationsänderungen mit Auswirkungen auf Geräte oder Datenträger-Verwaltungskomponenten, wie das Entfernen eines Cluster-Dateisystems, sccheck aus.
Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an.
Prüfen Sie die globalen Einhängepunkte im Cluster.
# sccheck |
Mit den Verwaltungsbefehlen der Plattenpfadüberwachung (DPM) können Sie eine Benachrichtigung über ein sekundäres Plattenpfadversagen erhalten. Mit den Verfahren aus diesem Abschnitt führen Sie Verwaltungsaufgaben im Rahmen der Plattenpfadüberwachung durch. Konzeptuelle Informationen über den Plattenpfad-Überwachungsdämon finden Sie in Kapitel 3, Schlüsselkonzepte für Systemverwalter und Anwendungsentwickler in Sun Cluster Konzepthandbuch für Solaris OS. Eine Beschreibung der scdpm-Befehlsoptionen und verwandter Befehle finden Sie in der Online-Dokumentation unter scdpm(1M). Protokollierte und vom Dämon gemeldete Fehler finden Sie in der Online-Dokumentation unter syslogd(1M).
Plattenpfade werden automatisch in die Überwachungsliste aufgenommen, wenn einem Knoten E/A-Geräte mit dem Befehl scgdevs oder scdidadm hinzugefügt werden. Die Überwachung der Plattenpfade wird auch automatisch beendet, wenn Geräte mit Sun Cluster-Befehlen von einem Knoten entfernt werden.
Schritt |
Anweisungen siehe |
---|---|
Überwachen eines Plattenpfades mit dem scdpm-Befehl | |
Beenden einer Plattenpfadüberwachung mit dem scdpm-Befehl | |
Drucken des Status der fehlerhaften Plattenpfade für einen Knoten mit scdpm | |
Überwachen von Plattenpfaden bzw. Beenden der Plattenpfadüberwachung von einer Datei aus mit scdpm -f |
Bei den Verfahren im nachstehenden Abschnitt wird der scdpm-Befehl mit dem Plattenpfad-Argument ausgegeben. Das Plattenpfad-Argument besteht immer aus einem Knotennamen und einem Plattennamen. Der Knotenname ist nicht erforderlich und wird standardmäßig auf all gesetzt, wenn kein Name angegeben wurde. Die nachstehende Tabelle beschreibt die Konventionen für die Benennung der Plattenpfade.
Die Verwendung des globalen Plattenpfadnamens wird dringend empfohlen, weil der globale Plattenpfadname auf dem ganzen Cluster konsistent ist. Der UNIX-Plattenpfadname ist nicht auf dem ganzen Cluster konsistent. Der UNIX-Plattenpfad für eine Platte kann von einem Cluster-Knoten zum anderen unterschiedlich sein. Der Plattenpfad kann auf einem Knoten c1t0d0 und auf einem anderen Knoten c2t0d0 sein. Verwenden Sie bei UNIX-Plattenpfadnamen den Befehl scdidadm -L, um die UNIX-Plattenpfadnamen den globalen Plattenpfadnamen zuzuordnen, bevor Sie DPM-Befehle ausgeben. Weitere Informationen finden Sie in der Online-Dokumentation unter scdidadm(1M).
Namenstyp |
Beispiel Plattenpfadname |
Beschreibung |
---|---|---|
Globaler Plattenpfad |
phys-schost-1:/dev/did/dsk/d1 |
Plattenpfad d1 auf dem Knoten phys-schost-1 |
all:d1 |
Plattenpfad d1 auf allen Cluster-Knoten |
|
UNIX-Plattenpfad |
phys-schost-1:/dev/rdsk/c0t0d0s0 |
Plattenpfad c0t0d0s0 auf dem Knoten phys-schost-1 |
phys-schost-1:all |
Alle Plattenpfade auf allen Cluster-Knoten |
Führen Sie diese Aufgabe durch, um alle Plattenpfade in Ihrem Cluster zu überwachen.
DPM wird auf Knoten nicht unterstützt, die Versionen ausführen, die vor Sun Cluster 3.1 10/03 Software herausgegeben wurden. Verwenden Sie während einer Aufrüstung keine DPM-Befehle. Nach der Aufrüstung müssen alle Knoten online sein, um die DPM-Befehle verwenden zu können.
Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an.
Überwachen eines Plattenpfades mit dem scdpm-Befehl.
# scdpm -m node:disk path |
Informationen finden Sie unter den Benennungskonventionen für das node:disk path-Argument.
Überprüfen Sie, ob der Plattenpfad überwacht wird.
# scdpm -p node:all |
Im nachstehenden Beispiel wird der Plattenpfad schost-1:/dev/did/rdsk/d1 von einem einzigen Knoten überwacht. Nur der DPM-Dämon am Knoten schost-1 überwacht den Pfad zur Platte /dev/did/dsk/d1 .
# scdpm -m schost-1:d1 # scdpm -p schost-1:d1 schost-1:/dev/did/dsk/d1 Ok |
Im nachstehenden Beispiel wird der Plattenpfad schost-1:/dev/did/dsk/d1 von allen Knoten überwacht. DPM startet auf allen Knoten, für die/dev/did/dsk/d1 ein gültiger Pfad ist.
# scdpm -m all:/dev/did/dsk/d1 # scdpm -p schost-1:d1 schost-1:/dev/did/dsk/d1 Ok |
Im nachstehenden Beispiel wird der Dämon zum erneuten Lesen der Plattenkonfiguration aus dem CCR gezwungen, und die überwachten Plattenpfade werden mit Status gedruckt.
# scdpm -m all:all # scdpm -p all:all schost-1:/dev/did/dsk/d4 Ok schost-1:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d4 Fail schost-2:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d5 Unmonitored schost-2:/dev/did/dsk/d6 Ok |
Mit diesem Verfahren beenden Sie die Überwachung eines Plattenpfades.
DPM wird auf Knoten nicht unterstützt, die Versionen ausführen, die vor Sun Cluster 3.1 10/03 Software herausgegeben wurden. Verwenden Sie während einer Aufrüstung keine DPM-Befehle. Nach der Aufrüstung müssen alle Knoten online sein, um die DPM-Befehle verwenden zu können.
Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an.
Bestimmen Sie den Zustand des Plattenpfades, dessen Überwachung beendet werden soll.
# scdpm -p [all:] disk path |
Druckt eine ausführliche Liste mit dem aktuellen Status eines angegebenen Plattenpfades
Zeigt alle überwachten und nicht überwachten Plattenpfade an
Beenden Sie auf jedem Knoten die Überwachung der entsprechenden Plattenpfade.
# scdpm -u node:disk path |
Unter Tabelle 4–5 erhalten Sie die Benennungskonventionen für das Argument node:disk path.
Im nachstehenden Beispiel wird die Überwachung des Plattenpfades schost-2:/dev/did/rdsk/d1 beendet und die Plattenpfade des ganzen Clusters werden mit Status gedruckt.
# scdpm -u schost-2:/dev/did/rdsk/d1 # scdpm -p all:all schost-1:/dev/did/dsk/d4 Ok schost-1:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d4 Fail schost-2:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d1 Unmonitored schost-2:/dev/did/dsk/d6 Ok |
Mit folgendem Verfahren drucken Sie die fehlerhaften Plattenpfade eines Clusters.
DPM wird auf Knoten nicht unterstützt, die Versionen ausführen, die vor Sun Cluster 3.1 10/03 Software herausgegeben wurden. Verwenden Sie während einer Aufrüstung keine DPM-Befehle. Nach der Aufrüstung müssen alle Knoten online sein, um die DPM-Befehle verwenden zu können.
Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an.
Drucken Sie die fehlerhaften Plattenpfade auf dem ganzen Cluster.
# scdpm -p -F node:disk path |
Unter Tabelle 4–5 erhalten Sie die Benennungskonventionen für das Argument node:disk path.
Im nachstehenden Beispiel werden die fehlerhaften Plattenpfade für den ganzen Cluster gedruckt.
# scdpm -p -F [all:]all schost-1:/dev/did/dsk/d4 Fail schost-1:/dev/did/dsk/d3 Fail schost-2:/dev/did/dsk/d4 Fail schost-2:/dev/did/dsk/d3 Fail schost-2:/dev/did/dsk/d5 Fail schost-2:/dev/did/dsk/d6 Fail |
Mit dem folgenden Verfahren überwachen Sie Plattenpfade bzw. beenden Sie die Plattenpfadüberwachung von einer Datei aus. Die Datei muss die Befehle zur Überwachung bzw. zum Beenden der Überwachung, die Knotennamen und die Plattenpfadnamen enthalten. Jedes Dateifeld sollte durch eine Spalte getrennt sein. Formatieren Sie jede Liste wie im nachstehenden Beispiel.
syntax in command file: [u,m] [node|all]:<[/dev/did/rdsk/]d- | [/dev/rdsk/]c-t-d- | all> command file entry u schost-1:/dev/did/rdsk/d5 m schost-2:all |
DPM wird auf Knoten nicht unterstützt, die Versionen ausführen, die vor Sun Cluster 3.1 10/03 Software herausgegeben wurden. Verwenden Sie während einer Aufrüstung keine DPM-Befehle. Nach der Aufrüstung müssen alle Knoten online sein, um die DPM-Befehle verwenden zu können.
Melden Sie sich bei einem Cluster-Knoten als Superbenutzer an.
Überwachen Sie die Plattenpfade von einer Datei aus.
# scdpm -f filename |
Überprüfen Sie die Plattenpfade mit Status für den Cluster.
# scdpm -p all:all |
Im nachstehenden Beispiel erfolgt die Überwachung von Plattenpfaden bzw. das Beenden der Plattenpfadüberwachung von einer Datei aus.
# scdpm -f schost_config # scdpm -p all:all schost-1:/dev/did/dsk/d4 Ok schost-1:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d4 Fail schost-2:/dev/did/dsk/d3 Ok schost-2:/dev/did/dsk/d5 Unmonitored schost-2:/dev/did/dsk/d6 Ok |