Installieren und konfigurieren Sie Ihre lokalen und Multihost-Platten für die Software Solstice DiskSuite oder Solaris Volume Manager, indem Sie die Verfahren in diesem Kapitel zusammen mit den Planungsdaten in Planen der Datenträgerverwaltung verwenden. Weitere Einzelheiten finden Sie in der Dokumentation zu Solstice DiskSuite oder Solaris Volume Manager.
DiskSuite Tool (Solstice DiskSuite metatool) und das Enhanced Storage-Modul von Solaris Management Console (Solaris Volume Manager) sind nicht mit der Sun Cluster-Software kompatibel. Verwenden Sie die Befehlszeilenschnittstelle oder die Sun Cluster-Dienstprogramme, um die Solstice DiskSuite oder Solaris Volume Manager-Software zu konfigurieren.
Dieses Kapitel enthält mehrere Abschnitte:
In diesem Abschnitt werden Informationen und Verfahren zum Installieren und Konfigurieren der Solstice DiskSuite oder Solaris Volume Manager-Software bereitgestellt. Unter folgenden Bedingungen können Sie manche Verfahren überspringen:
Wenn Sie SunPlex Installer für die Installation der Solstice DiskSuite-Software (Solaris 8) verwendet haben, sind die Verfahren So installieren Sie die Software Solstice DiskSuite bis So erstellen Sie Zustands-Datenbankreplikate bereits abgeschlossen. Wechseln Sie zu Spiegeln der Root-Platte oder Erstellen von Plattensätzen in einem Cluster , um die Konfiguration der Solstice DiskSuite-Software fortzusetzen.
Wenn Sie Solaris 9 oder Solaris 10 installiert haben, ist Solaris Volume Manager bereits installiert. Sie können die Konfiguration unter So stellen Sie die Anzahl von Metageräte- oder Datenträgernamen und Plattensätzen ein starten.
In der folgenden Tabelle werden die Aufgaben aufgelistet, die Sie beim Installieren und Konfigurieren der Software Solstice DiskSuite oder Solaris Volume Manager für Sun Cluster-Konfigurationen ausführen.
Tabelle 3–1 Task Map: Installieren und Konfigurieren der Software Solstice DiskSuite oder Solaris Volume Manager
Schritt |
Anweisungen |
---|---|
1. Planen Sie das Layout der Konfiguration von Solstice DiskSuite oder Solaris Volume Manager. | |
2. (Nur für Solaris 8) Installieren Sie die Software Solstice DiskSuite. | |
3. (nur Solaris 8 und Solaris 9) Berechnen Sie die erforderliche Anzahl von Metagerätenamen und Plattensätzen für Ihre Konfiguration und ändern Sie die Datei /kernel/drv/md.conf. |
So stellen Sie die Anzahl von Metageräte- oder Datenträgernamen und Plattensätzen ein |
4. Erstellen Sie Zustands-Datenbankreplikate auf den lokalen Platten. | |
5. (Optional) Spiegeln Sie die Dateisysteme auf der Root-Platte. |
Führen Sie dieses Verfahren nicht unter folgenden Bedingungen durch:
Sie haben die Software Solaris 9 installiert. Die Software Solaris Volume Manager wird automatisch mit der Solaris 9-Software installiert. Wechseln Sie stattdessen zu So stellen Sie die Anzahl von Metageräte- oder Datenträgernamen und Plattensätzen ein .
Sie haben die Software Solaris 10 installiert. Wechseln Sie stattdessen zu So erstellen Sie Zustands-Datenbankreplikate .
Sie haben SunPlex Installer für die Installation der Software Solstice DiskSuite verwendet. Führen Sie stattdessen einen der folgenden Vorgänge aus:
Wenn Sie weitere Plattensätze erstellen möchten, fahren Sie mit So stellen Sie die Anzahl von Metageräte- oder Datenträgernamen und Plattensätzen ein fort.
Wenn Sie keine weiteren Plattensätze erstellen möchten, fahren Sie mit Spiegeln der Root-Platte fort.
Führen Sie diese Aufgabe auf jedem Knoten des Clusters aus.
Führen Sie folgende Aufgaben aus:
Erstellen Sie Zuordnungen Ihrer Speicherlaufwerke.
Füllen Sie folgende Konfigurationsplanungs-Arbeitsblätter aus. Planungsrichtlinien finden Sie unter Planen der Datenträgerverwaltung .
Melden Sie sich beim Cluster-Knoten als Superuser an.
Wenn Sie von der CD-ROM installieren, legen Sie die CD-ROM 2 von 2 der Solaris 8-Software in das CD-ROM-Laufwerk des Knotens ein.
Dieser Schritt setzt voraus, dass der Datenträgerverwaltungs-Dämon vold(1M) läuft und für die Verwaltung von CD-ROM-Geräten konfiguriert ist.
Installieren Sie die Softwarepakete von Solstice DiskSuite.
Installieren Sie die Pakete in der in folgendem Beispiel angegebenen Reihenfolge.
# cd /cdrom/sol_8_sparc_2/Solaris_8/EA/products/DiskSuite_4.2.1/sparc/Packages # pkgadd -d . SUNWmdr SUNWmdu [SUNWmdx] optional-pkgs |
Die Pakete SUNWmdr und SUNWmdu sind für alle Installationen von Solstice DiskSuite erforderlich.
Das Paket SUNWmdx ist für die 64-Bit-Installation von Solstice DiskSuite ebenfalls erforderlich.
Informationen zu optionalen Softwarepaketen finden Sie in der Installationsdokumentation zu Solstice DiskSuite.
Wenn Sie Korrekturversionen der Software Solstice DiskSuite installieren möchten, booten Sie nach der Installation der Software Solstice DiskSuite nicht neu.
Wenn Sie von einer CD-ROM installiert haben, werfen Sie die CD-ROM aus.
Installieren Sie gegebenenfalls die Korrekturversionen von Solstice DiskSuite.
Den Speicherort von Korrekturversionen und Installationsanweisungen finden Sie unter Korrekturversionen und erforderliche Firmware-Ebenen in Sun Cluster 3.1 8/05 Versionshinweise für Solaris OS.
Wiederholen Sie Schritt 1 bis Schritt 5 auf jedem der anderen Knoten des Cluster.
Füllen Sie von einem Knoten des Clusters den Globalgeräte-Namensraum für Solstice DiskSuite aus.
# scgdevs |
Wenn Sie SunPlex Installer für die Installation der Solstice DiskSuite verwendet haben, fahren Sie mit Spiegeln der Root-Platte fort.
Wenn der Cluster unter Solaris 10 OS ausgeführt wird, fahren Sie mit So erstellen Sie Zustands-Datenbankreplikate fort.
Wechseln Sie andernfalls zu So stellen Sie die Anzahl von Metageräte- oder Datenträgernamen und Plattensätzen ein .
Der Befehl scgdevs Befehl kann eine Meldung mit etwa folgendem Wortlaut zurückgeben: Could not open /dev/rdsk/c0t6d0s2 to verify device id, Device busy. Wenn das aufgelistete Gerät ein CD-ROM-Gerät ist, können Sie die Meldung bedenkenlos ignorieren.
Führen Sie dieses Verfahren nicht durch, wenn folgende Bedingungen vorliegen:
Auf dem Cluster wird Solaris 10 OS ausgeführt.. Wechseln Sie stattdessen zu So erstellen Sie Zustands-Datenbankreplikate .
In Version Solaris 10 wurde Solaris Volume Manager so verbessert, dass eine dynamische Konfiguration von Datenträgern möglich ist. Sie brauchen nicht mehr die Parameter nmd und md_nsets in der Datei /kernel/drv/md.conf zu bearbeiten. Neue Datenträger werden nach Bedarf neu erstellt.
Sie haben SunPlex Installer für die Installation der Software Solstice DiskSuite verwendet. Wechseln Sie stattdessen zu Spiegeln der Root-Platte .
Dieses Verfahren beschreibt, wie die Anzahl von Metagerätenamen von Solstice DiskSuite oder Datenträgernamen von Solaris Volume Manager und Plattensätzen ermittelt wird, die für die Konfiguration erforderlich ist. Dieses Verfahren beschreibt auch, wie die Datei /kernel/drv/md.conf zur Angabe der Anzahl geändert wird.
Die Standardanzahl von Metageräte- oder Datenträgernamen pro Plattensatz beträgt 128, aber viele Konfigurationen benötigen mehr als die Standardanzahl. Erhöhen Sie diese Anzahl, bevor Sie eine Konfiguration implementieren, um später Verwaltungsaufwand zu sparen.
Halten Sie gleichzeitig den Wert der Felder nmd und md_nsets so niedrig wie möglich. Für alle möglichen Geräte sind Speicherstrukturen gemäß den Festlegungen in nmd und md_nsets vorhanden, auch wenn Sie diese Geräte nicht erstellt haben. Setzen Sie für eine optimale Leistung die Werte von nmd und md_nsets nur geringfügig höher als die Anzahl von Metageräten oder Datenträgern, die Sie zu verwenden planen.
Halten Sie das ausgefüllte Arbeitsblatt Plattengerätegruppen- Konfigurationen bereit.
Berechnen Sie die Gesamtanzahl von Plattensätzen, die Sie im Cluster erwartungsgemäß benötigen, und fügen Sie einen weiteren Plattensatz für private Plattenverwaltung hinzu.
Der Cluster kann maximal 32 Plattensätze umfassen, 31 Plattensätze für die allgemeine Verwendung und einen Plattensatz für die private Plattenverwaltung. Die Standardanzahl an Plattensätzen beträgt 4. Sie geben diesen Wert für das Feld md_nsets in Schritt 3 ein.
Berechnen Sie den größten Metageräte- oder Datenträgernamen, den Sie erwartungsgemäß in einem Plattensatz im Cluster benötigen.
Jeder Plattensatz kann maximal 8192 Metageräte- oder Datenträgernamen aufweisen. Sie geben diesen Wert für das Feld nmd in Schritt 3 ein.
Ermitteln Sie die Menge von Metageräte- oder Datenträgernamen, die Sie erwartungsgemäß für jeden Plattensatz benötigen.
Stellen Sie bei Verwendung lokaler Metageräte oder Datenträger sicher, dass jeder Name eines lokalen Metageräts oder Datenträgers, in den ein Dateisystem für globale Geräte, /global/.devices/node@ nodeid, eingehängt ist, im gesamten Cluster einmalig ist und nicht denselben Namen wie ein Geräte-ID-Namen im Cluster verwendet.
Wählen Sie einen Nummernbereich zur ausschließlichen Verwendung für Geräte-ID-Namen und einen Bereich für jeden Knoten zur ausschließlichen Verwendung für dessen lokale Metageräte- oder Datenträgernamen. Die Geräte-ID-Namen können zum Beispiel d1 bis d100 verwenden. Die lokalen Metageräte oder Datenträger auf Knoten 1 können Namen im Bereich d100 bis d199 verwenden. Lokale Metageräte- oder Datenträger auf Knoten 2 können d200 bis d299 verwenden.
Berechnen Sie die höchsten Metageräte- oder Datenträgernamen, die Sie voraussichtlich in einem Plattensatz benötigen.
Die festzulegende Menge der Metageräte- oder Datenträgername beruht auf dem Wert des Metageräte- bzw. Datenträgernamens und nicht auf der tatsächlichen Menge . Wenn der Metageräte- oder Datenträgernamensbereich von d950 bis d1000 reicht, erfordert die Software Solstice DiskSuite oder Solaris Volume Manager, dass Sie den Wert auf 1000 Namen und nicht auf 50 einstellen.
Bearbeiten Sie als Superuser auf jedem Knoten die Datei /kernel/drv/md.conf.
Alle Cluster-Knoten (oder Cluster-Paare bei der Cluster-Paartopologie) müssen unabhängig von der Anzahl der von jedem Knoten bedienten Plattensätze identische /kernel/drv/md.conf-Dateien aufweisen. Die Nichtbeachtung dieser Richtlinie kann zu schweren Fehlern von Solstice DiskSuite oder Solaris Volume Manager und Datenverlusten führen.
Führen Sie auf jedem Knoten ein Rekonfigurations-Neubooten aus.
# touch /reconfigure # shutdown -g0 -y -i6 |
Änderungen an der /kernel/drv/md.conf-Datei werden nach Ausführung eines Rekonfigurations-Neubootens wirksam.
Erstellen Sie lokale Zustands-Datenbankreplikate. Wechseln Sie zu So erstellen Sie Zustands-Datenbankreplikate .
Wenn Sie SunPlex Installer zum Installieren der Software Solstice DiskSuite verwendeten, führen Sie dieses Verfahren nicht aus. Wechseln Sie stattdessen zu Spiegeln der Root-Platte .
Führen Sie dieses Verfahren auf jedem Knoten des Clusters aus.
Melden Sie sich beim Cluster-Knoten als Superuser an.
Erstellen Sie Zustands-Datenbankreplikate auf einem oder mehreren lokalen Geräten für jeden Cluster-Knoten.
Geben Sie die Bereiche, die verwendet werden sollen, mit dem realen Namen (cNtXdY sZ) und nicht mit dem Geräte-ID-Namen (dN) an.
# metadb -af slice-1 slice-2 slice-3 |
Erstellen Sie zum Schutz der Zustandsdaten, die zum Ausführen der Software Solstice DiskSuite oder Solaris Volume Manager erforderlich sind, mindestens drei Replikate für jeden Knoten. Sie können die Replikate auch auf mehreren Geräten speichern, um sich bei einem Geräteausfall zu schützen.
Details hierzu finden Sie in der Online-Dokumentation unter metadb(1M) und in der Dokumentation zu Solstice DiskSuite oder Solaris Volume Manager .
Überprüfen Sie die Replikate.
# metadb |
Mithilfe des metadb-Befehls können Sie die Replikatliste anzeigen.
Das folgende Beispiel zeigt drei Zustands-Datenbankreplikate von Solstice DiskSuite. Jedes Replikat wird auf einem anderen Gerät erstellt. Die Replikatgröße wäre mit Solaris Volume Manager größer.
# metadb -af c0t0d0s7 c0t1d0s7 c1t0d0s7 # metadb flags first blk block count a u 16 1034 /dev/dsk/c0t0d0s7 a u 16 1034 /dev/dsk/c0t1d0s7 a u 16 1034 /dev/dsk/c1t0d0s7 |
Wenn Sie Dateisysteme auf der Root-Platte spiegeln möchten, fahren Sie mit Spiegeln der Root-Platte fort.
Fahren Sie andernfalls mit Erstellen von Plattensätzen in einem Cluster fort, um Solstice DiskSuite oder Solaris Volume Manager-Plattensätze zu erstellen.
Das Spiegeln der Root-Platte verhindert, dass der Cluster-Knoten aufgrund eines Systemplattenausfalls heruntergefahren wird. Auf der Root-Platte können sich vier Dateisystemtypen befinden. Jeder Dateisystemtyp wird mit einer anderen Methode gespiegelt.
Verwenden Sie folgende Verfahren, um jeden Dateisystemtyp zu spiegeln.
Verwenden Sie beim Spiegeln lokaler Platten nicht den Pfad /dev/global, wenn Sie den Plattennamen angeben. Wenn Sie diesen Pfad nicht ausschließlich für Cluster-Dateisysteme angeben, kann das System nicht booten.
Verwenden Sie dieses Verfahren, um das Root-Dateisystem (/) zu spiegeln.
Melden Sie sich als Superuser beim Knoten an.
Bringen Sie den Root-Bereich in eine Einzelbereichsverkettung (unidirektional).
Geben Sie den realen Plattennamen des Root-Plattenbereichs (cNtXdY sZ) an.
# metainit -f submirror1 1 1 root-disk-slice |
Erstellen Sie eine zweite Verkettung.
# metainit submirror2 1 1 submirror-disk-slice |
Erstellen Sie einen eindirektionalen Spiegel mit einem Unterspiegel.
# metainit mirror -m submirror1 |
Wenn es sich bei dem Gerät um ein lokales Gerät handelt, das zum Einhängen eines Dateisystems für globale Geräte, /global/.devices/node@nodeid, verwendet wird, muss der Name des Metageräts bzw. Datenträgers für den Spiegel im gesamten Cluster eindeutig sein.
Führen Sie den Befehl metaroot(1M) aus.
Dieser Befehl bearbeitet die Dateien /etc/vfstab und /etc/system, damit das System mit dem Root-Dateisystem (/) auf einem Metagerät oder Datenträger gebootet werden kann.
# metaroot mirror |
Führen Sie den Befehl lockfs(1M) aus.
Dieser Befehl löscht alle Transaktionen im Protokoll und schreibt die Transaktionen in das Master-Dateisystem auf allen eingehängten UFS-Dateisystemen.
# lockfs -fa |
Verschieben Sie alle Ressourcen- oder Gerätegruppen vom Knoten.
# scswitch -S -h from-node |
Verschiebt alle Ressourcen- und Gerätegruppen
Gibt den Namen des Knoten an, von dem die Ressourcen- oder Gerätegruppen verschoben werden sollen
Booten Sie den Knoten neu.
Dieser Befehl hängt das jüngst gespiegelte Root-Dateisystem (/) wieder ein.
# shutdown -g0 -y -i6 |
Verwenden Sie den Befehl metattach(1M), um den zweiten Unterspiegel an den Spiegel anzuhängen
# metattach mirror submirror2 |
Wenn die Platte, die für die Spiegelung der Root-Platte verwendet wird, real mit mehreren Knoten verbunden ist (Multihost), aktivieren Sie die localonly-Eigenschaft.
Führen Sie folgende Schritte durch, um die localonly-Eigenschaft der im im raw-Modus betriebenen Plattengerätegruppe für die Platte, die für die Spiegelung der Root-Platte verwendet wird, zu aktivieren. Sie müssen die localonly-Eigenschaft aktivieren, um ein unbeabsichtigtes Schützen eines Knotens vor seinem Boot-Gerät zu verhindern, wenn das Boot-Gerät mit mehreren Knoten verbunden ist.
Verwenden Sie gegebenenfalls den Befehl scdidadm(1M) -L, um den vollen Geräte-ID-Pfadnamen der Gerätegruppe der im raw-Modus betriebenen Platte anzuzeigen.
Im folgenden Beispiel ist der Gerätegruppenname der im raw-Modus betriebenen Platte dsk/d2 Teil der dritten Spalte der Ausgabe, die den vollen Geräte-ID-Pfadnamen wiedergibt.
# scdidadm -L … 1 phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 |
Zeigen Sie die Knotenliste der Gerätegruppe der im raw-Modus betriebenen Platte an.
Die Ausgabe sieht etwa wie folgt aus:
# scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … |
Falls die Knotenliste mehrere Knotennamen enthält, entfernen Sie alle Knoten mit Ausnahme des Knotens, dessen Root-Platte Sie gespiegelt haben, aus der Knotenliste.
Nur der Knoten, dessen Root-Platte Sie gespiegelt haben, sollte in der Knotenliste für die Gerätegruppe der im raw-Modus betriebenen Platte verbleiben.
# scconf -r -D name=dsk/dN,nodelist=node |
Gibt den im Cluster einmaligen Namen der Gerätegruppe der im raw-Modus betriebenen Platte an.
Gibt den Namen des/der Knoten an, der/die aus der Knotenliste entfernt werden soll/en.
Verwenden Sie den Befehl scconf(1M), um die localonly -Eigenschaft zu aktivieren.
Wenn die localonly-Eigenschaft aktiviert ist, wird die Gerätegruppe der im raw-Modus betriebenen Platte ausschließlich vom Knoten in der Knotenliste verwendet. Diese Verwendung verhindert das unbeabsichtigte Schützen des Knotens vor seinem Boot-Gerät, wenn das Boot-Gerät mit mehreren Knoten verbunden ist.
# scconf -c -D name=rawdisk-groupname,localonly=true |
Gibt den Namen der Gerätegruppe der im raw-Modus betriebenen Platte an
Weitere Informationen zur localonly-Eigenschaft finden Sie in der Online-Dokumentation unter scconf_dg_rawdisk(1M).
Zeichnen Sie den alternativen Boot-Pfad für eine mögliche spätere Verwendung auf.
Wenn das primäre Boot-Gerät ausfällt, können Sie von diesem alternativen Boot-Gerät booten. Weitere Informationen zu alternativen Boot-Geräten finden Sie in Kapitel 7, Troubleshooting the System in Solstice DiskSuite 4.2.1 User’s Guide, Special Considerations for Mirroring root (/) in Solaris Volume Manager Administration Guide bzw. unter Creating a RAID-1 Volume in Solaris Volume Manager Administration Guide.
# ls -l /dev/rdsk/root-disk-slice |
Wiederholen Sie Schritt 1 through Schritt 11 auf jedem verbleibenden Knoten im Cluster.
Vergewissern Sie sich, dass der Name jedes Metageräts bzw. Datenträgers, auf dem ein Dateisystem für globale Geräte, /global/.devices/node@nodeid, eingehängt werden soll, im gesamten Cluster eindeutig ist.
Das folgende Beispiel zeigt die Erstellung des Spiegels d0 auf dem Knoten phys-schost-1, der aus dem Unterspiegel d10 auf der Partition c0t0d0s0 und dem Unterspiegel d20 auf der Partition c2t2d0s0 besteht. Das Gerät c2t2d0 ist eine Multihostplatte. Demzufolge ist die localonly-Eigenschaft aktiviert.
(Create the mirror) # metainit -f d10 1 1 c0t0d0s0 d11: Concat/Stripe is setup # metainit d20 1 1 c2t2d0s0 d12: Concat/Stripe is setup # metainit d0 -m d10 d10: Mirror is setup # metaroot d0 # lockfs -fa (Move resource groups and device groups from phys-schost-1) # scswitch -S -h phys-schost-1 (Reboot the node) # shutdown -g0 -y -i6 (Attach the second submirror) # metattach d0 d20 d0: Submirror d20 is attached (Display the device-group node list) # scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … (Remove phys-schost-3 from the node list) # scconf -r -D name=dsk/d2,nodelist=phys-schost-3 (Enable the localonly property) # scconf -c -D name=dsk/d2,localonly=true (Record the alternate boot path) # ls -l /dev/rdsk/c2t2d0s0 lrwxrwxrwx 1 root root 57 Apr 25 20:11 /dev/rdsk/c2t2d0s0 –> ../../devices/node@1/pci@1f,0/pci@1/scsi@3,1/disk@2,0:a,raw |
Um den globalen Namensraum, /global/.devices/node@nodeid, zu spiegeln, fahren Sie mit So spiegeln Sie den globalen Namensraum fort.
Um Dateisysteme zu spiegeln, die nicht ausgehängt werden können, fahren Sie mit So spiegeln Sie außer dem Root-Dateisystem (/) andere Dateisysteme, die nicht ausgehängt werden können fort.
Zum Spiegeln benutzerdefinierter Dateisysteme fahren Sie mit So spiegeln Sie Dateisysteme die ausgehängt werden können fort.
Fahren Sie andernfalls mit Erstellen von Plattensätzen in einem Cluster fort, um einen Plattensatz zu erstellen.
Einige der Schritte in diesem Spiegelungsvorgang können Fehlermeldungen der folgenden Art auslösen: metainit: dg-schost-1: d1s0: not a metadevice. Derartige Fehlermeldungen sind unbedenklich und können ignoriert werden.
Verwenden Sie dieses Verfahren, um den globalen Namensraum, /global/.devices/node@nodeid/ zu spiegeln.
Melden Sie sich als Superuser bei einem Cluster-Knoten an.
Bringen Sie den Bereich des globalen Namensraums in eine Einzelbereichsverkettung (unidirektional).
Verwenden Sie den realen Plattennamen des Plattenbereichs (cNtXdY sZ).
# metainit -f submirror1 1 1 diskslice |
Erstellen Sie eine zweite Verkettung.
# metainit submirror2 1 1 submirror-diskslice |
Erstellen Sie einen eindirektionalen Spiegel mit einem Unterspiegel.
# metainit mirror -m submirror1 |
Der Name jedes Metageräts bzw. Datenträgers, auf dem ein Dateisystem für globale Geräte, /global/.devices/node@nodeid, eingehängt werden soll, muss im gesamten Cluster eindeutig ist.
Hängen Sie den zweiten Unterspiegel an den Spiegel an.
Dieses Anhängen startet die Synchronisierung der Unterspiegel.
# metattach mirror submirror2 |
Bearbeiten Sie den Eintrag in der Datei /etc/vfstab für das Dateisystem /global/.devices/node@nodeid.
Ersetzen Sie die Namen in den Spalten device bis mount und device bis fsck durch den Spiegelnamen.
# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/mirror /dev/md/rdsk/mirror /global/.devices/node@nodeid ufs 2 no global |
Wiederholen Sie Schritt 1 bis Schritt 6 auf jedem verbleibenden Knoten im Cluster.
Warten Sie, bis die Synchronisation der Spiegel, die in Schritt 5 begonnen wurde, abgeschlossen ist.
Verwenden Sie den Befehl metastat(1M), um den Spiegelstatus anzuzeigen und zu überprüfen, ob die Spiegelsynchronisierung abgeschlossen ist.
# metastat mirror |
Wenn die Platte, die für die Spiegelung des Root-Namensraums verwendet wird, real mit mehreren Knoten verbunden ist (Multihost), aktivieren Sie die localonly-Eigenschaft.
Führen Sie folgende Schritte durch, um die localonly-Eigenschaft der im im raw-Modus betriebenen Plattengerätegruppe für die Platte, die für die Spiegelung des globalen Namensraums verwendet wird, zu aktivieren. Sie müssen die localonly-Eigenschaft aktivieren, um ein unbeabsichtigtes Schützen eines Knotens vor seinem Boot-Gerät zu verhindern, wenn das Boot-Gerät mit mehreren Knoten verbunden ist.
Verwenden Sie gegebenenfalls den Befehl scdidadm(1M), um den vollen Geräte-ID-Pfadnamen der Gerätegruppe der im raw-Modus betriebenen Platte anzuzeigen.
Im folgenden Beispiel ist der Gerätegruppenname der im raw-Modus betriebenen Platte dsk/d2 Teil der dritten Spalte der Ausgabe, die den vollen Geräte-ID-Pfadnamen wiedergibt.
# scdidadm -L … 1 phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 |
Zeigen Sie die Knotenliste der Gerätegruppe der im raw-Modus betriebenen Platte an.
Die Ausgabe sieht etwa wie folgt aus:
# scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … |
Falls die Knotenliste mehrere Knotennamen enthält, entfernen Sie alle Knoten mit Ausnahme des Knotens, dessen Platte gespiegelt wird, aus der Knotenliste.
Nur der Knoten, dessen Platte Sie gespiegelt wird, sollte in der Knotenliste für die Gerätegruppe der im raw-Modus betriebenen Platte verbleiben.
# scconf -r -D name=dsk/dN,nodelist=node |
Gibt den im Cluster einmaligen Namen der Gerätegruppe der im raw-Modus betriebenen Platte an.
Gibt den Namen des/der Knoten an, der/die aus der Knotenliste entfernt werden soll/en.
Aktivieren Sie die Eigenschaft localonly.
Wenn die localonly-Eigenschaft aktiviert ist, wird die Gerätegruppe der im raw-Modus betriebenen Platte ausschließlich vom Knoten in der Knotenliste verwendet. Diese Verwendung verhindert das unbeabsichtigte Schützen des Knotens vor seinem Boot-Gerät, wenn das Boot-Gerät mit mehreren Knoten verbunden ist.
# scconf -c -D name=rawdisk-groupname,localonly=true |
Gibt den Namen der Gerätegruppe der im raw-Modus betriebenen Platte an
Weitere Informationen zur localonly-Eigenschaft finden Sie in der Online-Dokumentation unter scconf_dg_rawdisk(1M).
Das folgende Beispiel zeigt die Erstellung von Spiegel d101, der aus dem Unterspiegel d111 auf der Partition c0t0d0s3 und dem Unterspiegel d121 auf der Partition c2t2d0s3 besteht. Der Dateieintrag /etc/vfstab für /global/.devices/node@1 wird zur Verwendung des Spiegelnamens d101 aktualisiert. Das Gerät c2t2d0 ist eine Multihostplatte. Demzufolge ist die localonly-Eigenschaft aktiviert.
(Create the mirror) # metainit -f d111 1 1 c0t0d0s3 d111: Concat/Stripe is setup # metainit d121 1 1 c2t2d0s3 d121: Concat/Stripe is setup # metainit d101 -m d111 d101: Mirror is setup # metattach d101 d121 d101: Submirror d121 is attached (Edit the /etc/vfstab file) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/d101 /dev/md/rdsk/d101 /global/.devices/node@1 ufs 2 no global (View the sync status) # metastat d101 d101: Mirror Submirror 0: d111 State: Okay Submirror 1: d121 State: Resyncing Resync in progress: 15 % done … (Identify the device-ID name of the mirrored disk's raw-disk device group) # scdidadm -L … 1 phys-schost-3:/dev/rdsk/c2t2d0 /dev/did/rdsk/d2 (Display the device-group node list) # scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … (Remove phys-schost-3 from the node list) # scconf -r -D name=dsk/d2,nodelist=phys-schost-3 (Enable the localonly property) # scconf -c -D name=dsk/d2,localonly=true |
Wenn Sie andere Dateisysteme als Root (/) speichern möchten, die nicht ausgehängt werden können, wechseln Sie zu So spiegeln Sie außer dem Root-Dateisystem (/) andere Dateisysteme, die nicht ausgehängt werden können.
Wenn Sie benutzerdefinierte Dateisysteme spiegeln möchten, wechseln Sie zu So spiegeln Sie Dateisysteme die ausgehängt werden können
Fahren Sie andernfalls mit Erstellen von Plattensätzen in einem Cluster fort, um einen Plattensatz zu erstellen.
Einige der Schritte in diesem Spiegelungsvorgang können Fehlermeldungen der folgenden Art auslösen: metainit: dg-schost-1: d1s0: not a metadevice. Derartige Fehlermeldungen sind unbedenklich und können ignoriert werden.
Verwenden Sie dieses Verfahren, um außer dem Root-Dateisystem (/) andere Dateisysteme zu spiegeln, die während der normalen Systemverwendung nicht ausgehängt werden können, wie zum Beispiel /usr, /opt oder swap.
Melden Sie sich als Superuser bei einem Cluster-Knoten an.
Bringen Sie den Bereich, in dem sich ein nicht aushängbares Dateisystem befindet, in eine Einzelbereichsverkettung (unidirektional).
Geben Sie den realen Plattennamen des Plattenbereichs an (cNtX dYsZ).
# metainit -f submirror1 1 1 diskslice |
Erstellen Sie eine zweite Verkettung.
# metainit submirror2 1 1 submirror-diskslice |
Erstellen Sie einen eindirektionalen Spiegel mit einem Unterspiegel.
# metainit mirror -m submirror1 |
Der Metageräte- oder Datenträgernamen für diesen Spiegel muss im Cluster nicht einmalig sein.
Wiederholen Sie Schritt 1 through Schritt 4 für alle restlichen nicht einhängbaren Dateisysteme, die Sie spiegeln möchten .
Bearbeiten Sie auf jedem Knoten den Dateieintrag /etc/vfstab für jedes nicht aushängbare Dateisystem, das Sie gespiegelt haben.
Ersetzen Sie die Namen in den Spalten device bis mount und device bis fsck durch den Spiegelnamen.
# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/mirror /dev/md/rdsk/mirror /filesystem ufs 2 no global |
Verschieben Sie alle Ressourcen- oder Gerätegruppen vom Knoten.
# scswitch -S -h from-node |
Verschiebt alle Ressourcen- und Gerätegruppen
Gibt den Namen des Knoten an, von dem die Ressourcen- oder Gerätegruppen verschoben werden sollen
Booten Sie den Knoten neu.
# shutdown -g0 -y -i6 |
Hängen Sie den zweiten Unterspiegel an jeden Spiegel an.
Dieses Anhängen startet die Synchronisierung der Unterspiegel.
# metattach mirror submirror2 |
Warten Sie, bis die Synchronisation der Spiegel, die in Schritt 9 begonnen wurde, abgeschlossen ist.
Verwenden Sie den Befehl metastat(1M), um den Spiegelstatus anzuzeigen und zu überprüfen, ob die Spiegelsynchronisierung abgeschlossen ist.
# metastat mirror |
Wenn die Platte, die für die Spiegelung des nicht aushängbaren Dateisystems verwendet wird, real mit mehreren Knoten verbunden ist (Multihost), aktivieren Sie die localonly-Eigenschaft.
Führen Sie folgende Schritte durch, um die localonly-Eigenschaft der im Gerätegruppen der im raw-Modus betriebenen Platte, die für die Spiegelung des nicht aushängbaren Dateisystems verwendet wird, zu aktivieren. Sie müssen die localonly-Eigenschaft aktivieren, um ein unbeabsichtigtes Schützen eines Knotens vor seinem Boot-Gerät zu verhindern, wenn das Boot-Gerät mit mehreren Knoten verbunden ist.
Verwenden Sie bei Bedarf den Befehl scdidadm -L, um den vollen Geräte-ID-Pfadnamen der Gerätegruppe der im raw-Modus betriebenen Platte anzuzeigen.
Im folgenden Beispiel ist der Gerätegruppenname der im raw-Modus betriebenen Platte dsk/d2 Teil der dritten Spalte der Ausgabe, die den vollen Geräte-ID-Pfadnamen wiedergibt.
# scdidadm -L … 1 phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 |
Zeigen Sie die Knotenliste der Gerätegruppe der im raw-Modus betriebenen Platte an.
Die Ausgabe sieht etwa wie folgt aus:
# scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … |
Falls die Knotenliste mehrere Knotennamen enthält, entfernen Sie alle Knoten mit Ausnahme des Knotens, dessen Root-Platte gespiegelt wird, aus der Knotenliste.
Nur der Knoten, dessen Root-Plattegespiegelt wird, sollte in der Knotenliste für die Gerätegruppe der im raw-Modus betriebenen Platte verbleiben.
# scconf -r -D name=dsk/dN,nodelist=node |
Gibt den im Cluster einmaligen Namen der Gerätegruppe der im raw-Modus betriebenen Platte an.
Gibt den Namen des/der Knoten an, der/die aus der Knotenliste entfernt werden soll/en.
Aktivieren Sie die Eigenschaft localonly.
Wenn die localonly-Eigenschaft aktiviert ist, wird die Gerätegruppe der im raw-Modus betriebenen Platte ausschließlich vom Knoten in der Knotenliste verwendet. Diese Verwendung verhindert das unbeabsichtigte Schützen des Knotens vor seinem Boot-Gerät, wenn das Boot-Gerät mit mehreren Knoten verbunden ist.
# scconf -c -D name=rawdisk-groupname,localonly=true |
Gibt den Namen der Gerätegruppe der im raw-Modus betriebenen Platte an
Weitere Informationen zur localonly-Eigenschaft finden Sie in der Online-Dokumentation unter scconf_dg_rawdisk(1M).
Das folgende Beispiel zeigt die Erstellung von Spiegel d1 auf dem Knoten phys-schost-1, um /usr zu spiegeln, das sich auf c0t0d0s1 befindet. Der Spiegel d1 besteht aus dem Unterspiegel d11 auf der Partition c0t0d0s1 und dem Unterspiegel d21 auf der Partition c2t2d0s1. Der Dateieintrag /etc/vfstab für /usr wird aktualisiert, um den Spiegelnamen d1 zu verwenden. Das Gerät c2t2d0 ist eine Multihostplatte. Demzufolge ist die localonly-Eigenschaft aktiviert.
(Create the mirror) # metainit -f d11 1 1 c0t0d0s1 d11: Concat/Stripe is setup # metainit d21 1 1 c2t2d0s1 d21: Concat/Stripe is setup # metainit d1 -m d11 d1: Mirror is setup (Edit the /etc/vfstab file) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/d1 /dev/md/rdsk/d1 /usr ufs 2 no global (Move resource groups and device groups from phys-schost-1) # scswitch -S -h phys-schost-1 (Reboot the node) # shutdown -g0 -y -i6 (Attach the second submirror) # metattach d1 d21 d1: Submirror d21 is attached (View the sync status) # metastat d1 d1: Mirror Submirror 0: d11 State: Okay Submirror 1: d21 State: Resyncing Resync in progress: 15 % done … (Identify the device-ID name of the mirrored disk's raw-disk device group) # scdidadm -L … 1 phys-schost-3:/dev/rdsk/c2t2d0 /dev/did/rdsk/d2 (Display the device-group node list) # scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … (Remove phys-schost-3 from the node list) # scconf -r -D name=dsk/d2,nodelist=phys-schost-3 (Enable the localonly property) # scconf -c -D name=dsk/d2,localonly=true |
Zum Spiegeln benutzerdefinierter Dateisysteme fahren Sie mit So spiegeln Sie Dateisysteme die ausgehängt werden können fort.
Fahren Sie andernfalls mit Erstellen von Plattensätzen in einem Cluster fort, um einen Plattensatz zu erstellen.
Einige der Schritte in diesem Spiegelungsvorgang können Fehlermeldungen der folgenden Art auslösen: metainit: dg-schost-1: d1s0: not a metadevice. Derartige Fehlermeldungen sind unbedenklich und können ignoriert werden.
Verwenden Sie dieses Verfahren, um die benutzerdefinierten Dateisysteme zu spiegeln, die ausgehängt werden können. Bei diesem Verfahren müssen die Knoten nicht neu gebootet werden.
Melden Sie sich als Superuser bei einem Cluster-Knoten an.
Hängen Sie das Dateisystem aus, das Sie spiegeln möchten.
Stellen Sie sicher, dass im Dateisystem keine Prozesse ausgeführt werden.
# umount /mount-point |
Weitere Informationen finden Sie in der Online-Dokumentation unter umount(1M) und inKapitel 18, Mounting and Unmounting File Systems (Tasks) in System Administration Guide: Devices and File Systems .
Bringen Sie den Bereich, der ein benutzerdefiniertes Dateisystem enthält, das ausgehängt werden kann, in eine Einzelbereichsverkettung (unidirektional).
Geben Sie den realen Plattennamen des Plattenbereichs an (cNtX dYsZ).
# metainit -f submirror1 1 1 diskslice |
Erstellen Sie eine zweite Verkettung.
# metainit submirror2 1 1 submirror-diskslice |
Erstellen Sie einen eindirektionalen Spiegel mit einem Unterspiegel.
# metainit mirror -m submirror1 |
Der Metageräte- oder Datenträgernamen für diesen Spiegel muss im Cluster nicht einmalig sein.
Wiederholen Sie Schritt 1 bis Schritt 5 für jedes einhängbare Dateisystem, das gespiegelt werden soll.
Bearbeiten Sie auf jedem Knoten den Dateieintrag /etc/vfstab für jedes Dateisystem, das Sie gespiegelt haben.
Ersetzen Sie die Namen in den Spalten device bis mount und device bis fsck durch den Spiegelnamen.
# vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # /dev/md/dsk/mirror /dev/md/rdsk/mirror /filesystem ufs 2 no global |
Hängen Sie den zweiten Unterspiegel an den Spiegel an.
Dieses Anhängen startet die Synchronisierung der Unterspiegel.
# metattach mirror submirror2 |
Warten Sie, bis die Synchronisation der Spiegel, die in Schritt 8 begonnen wurde, abgeschlossen ist.
Verwenden Sie den Befehl metastat(1M), um den Spiegelstatus anzuzeigen.
# metastat mirror |
Wenn die Platte, die für die Spiegelung des benutzerdefinierten Dateisystems verwendet wird, real mit mehreren Knoten verbunden ist (Multihost), aktivieren Sie die localonly-Eigenschaft.
Führen Sie folgende Schritte durch, um die localonly-Eigenschaft der im raw-Modus betriebenen Plattengerätegruppe für die Platte, die für die Spiegelung des benutzerdefinierten Dateisystems verwendet wird, zu aktivieren. Sie müssen die localonly-Eigenschaft aktivieren, um ein unbeabsichtigtes Schützen eines Knotens vor seinem Boot-Gerät zu verhindern, wenn das Boot-Gerät mit mehreren Knoten verbunden ist.
Verwenden Sie bei Bedarf den Befehl scdidadm -L, um den vollen Geräte-ID-Pfadnamen der Gerätegruppe der im raw-Modus betriebenen Platte anzuzeigen.
Im folgenden Beispiel ist der Gerätegruppenname der im raw-Modus betriebenen Platte dsk/d4 Teil der dritten Spalte der Ausgabe, die den vollen Geräte-ID-Pfadnamen wiedergibt.
# scdidadm -L … 1 phys-schost-3:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 |
Zeigen Sie die Knotenliste der Gerätegruppe der im raw-Modus betriebenen Platte an.
Die Ausgabe sieht etwa wie folgt aus:
# scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … |
Falls die Knotenliste mehrere Knotennamen enthält, entfernen Sie alle Knoten mit Ausnahme des Knotens, dessen Root-Platte Sie gespiegelt haben, aus der Knotenliste.
Nur der Knoten, dessen Root-Platte Sie gespiegelt haben, sollte in der Knotenliste für die Gerätegruppe der im raw-Modus betriebenen Platte verbleiben.
# scconf -r -D name=dsk/dN,nodelist=node |
Gibt den im Cluster einmaligen Namen der Gerätegruppe der im raw-Modus betriebenen Platte an.
Gibt den Namen des/der Knoten an, der/die aus der Knotenliste entfernt werden soll/en.
Aktivieren Sie die Eigenschaft localonly.
Wenn die localonly-Eigenschaft aktiviert ist, wird die Gerätegruppe der im raw-Modus betriebenen Platte ausschließlich vom Knoten in der Knotenliste verwendet. Diese Verwendung verhindert das unbeabsichtigte Schützen des Knotens vor seinem Boot-Gerät, wenn das Boot-Gerät mit mehreren Knoten verbunden ist.
# scconf -c -D name=rawdisk-groupname,localonly=true |
Gibt den Namen der Gerätegruppe der im raw-Modus betriebenen Platte an
Weitere Informationen zur localonly-Eigenschaft finden Sie in der Online-Dokumentation unter scconf_dg_rawdisk(1M).
Hängen Sie das gespiegelte Dateisystem ein.
# mount /mount-point |
Weitere Informationen finden Sie in der Online-Dokumentation unter mount(1M) und in Kapitel 18, Mounting and Unmounting File Systems (Tasks) in System Administration Guide: Devices and File Systems.
Das folgende Beispiel zeigt die Erstellung des Spiegels d4, um /export auf c0t0d0s4 zu spiegeln. Der Spiegel d4 besteht aus dem Unterspiegel d14 auf der Partition c0t0d0s4 und dem Unterspiegel d24 auf der Partition c2t2d0s4. Der Dateieintrag /etc/vfstab für /export wird aktualisiert, um den Spiegelnamen d4 zu verwenden. Das Gerät c2t2d0 ist eine Multihostplatte. Demzufolge ist die localonly-Eigenschaft aktiviert.
(Unmount the file system) # umount /export (Create the mirror) # metainit -f d14 1 1 c0t0d0s4 d14: Concat/Stripe is setup # metainit d24 1 1 c2t2d0s4 d24: Concat/Stripe is setup # metainit d4 -m d14 d4: Mirror is setup (Edit the /etc/vfstab file) # vi /etc/vfstab #device device mount FS fsck mount mount #to mount to fsck point type pass at boot options # # /dev/md/dsk/d4 /dev/md/rdsk/d4 /export ufs 2 no global (Attach the second submirror) # metattach d4 d24 d4: Submirror d24 is attached (View the sync status) # metastat d4 d4: Mirror Submirror 0: d14 State: Okay Submirror 1: d24 State: Resyncing Resync in progress: 15 % done … (Identify the device-ID name of the mirrored disk's raw-disk device group) # scdidadm -L … 1 phys-schost-3:/dev/rdsk/c2t2d0 /dev/did/rdsk/d2 (Display the device-group node list) # scconf -pvv | grep dsk/d2 Device group name: dsk/d2 … (dsk/d2) Device group node list: phys-schost-1, phys-schost-3 … (Remove phys-schost-3 from the node list) # scconf -r -D name=dsk/d2,nodelist=phys-schost-3 (Enable the localonly property) # scconf -c -D name=dsk/d2,localonly=true (Mount the file system) # mount /export |
Wenn Sie Datensätze erstellen müssen, sollten Sie folgende Dokumente lesen:
Um einen Solaris Volume Manager for Sun Cluster-Plattensatz zur Verwendung durch Oracle Real Application Clusters zu erstellen, wechseln Sie zu Creating a Multi-Owner Disk Set in Solaris Volume Manager for Sun Cluster for the Oracle Real Application Clusters Database in Sun Cluster Data Service for Oracle Real Application Clusters Guide for Solaris OS.
Um einen Plattensatz für eine andere Anwendung zu erstellen, wechseln Sie zu Erstellen von Plattensätzen in einem Cluster .
Wenn Sie SunPlex Installer zum Installieren von Solstice DiskSuite verwendet haben, können bereits ein bis drei Plattensätze vorhanden sein. Informationen zu den von SunPlex Installer erstellten Metasätzen finden Sie unter Konfigurieren der Sun Cluster-Software mit SunPlex Installer .
Wenn Sie über genügend Plattensätze für Ihren Bedarf verfügen, fahren Sie mit einem der folgenden Punkte fort:
Wenn Ihr Cluster Plattensätze enthält, die mit genau zwei Plattengehäusen und zwei Knoten konfiguriert wurden, müssen Sie Doppelverkettungsvermittler hinzufügen. Wechseln Sie zu Konfigurieren von Doppelverkettungsvermittlern .
Wenn für Ihre Cluster-Konfiguration keine Doppelverkettungsvermittler erforderlich sind, wechseln Sie zu So erstellen Sie Cluster-Dateisysteme .
Einige der Schritte in diesem Spiegelungsvorgang können Fehlermeldungen der folgenden Art auslösen: metainit: dg-schost-1: d1s0: not a metadevice. Derartige Fehlermeldungen sind unbedenklich und können ignoriert werden.
In diesem Abschnitt wird beschrieben, wie Plattensätze für eine Cluster-Konfiguration erstellt werden. Unter folgenden Bedingungen sollten Sie keine Plattensätze erstellen:
Wenn Sie SunPlex Installer zum Installieren von Solstice DiskSuite verwendet haben, können bereits ein bis drei Plattensätze vorhanden sein. Informationen zu den von SunPlex Installer erstellten Metasätzen finden Sie unter Konfigurieren der Sun Cluster-Software mit SunPlex Installer .
Führen Sie dieses Verfahren nicht für die Erstellung eines Solaris Volume Manager for Sun Cluster-Plattensatzes für die Verwendung durch Oracle Real Application Clusters aus. Führen Sie stattdessen die Verfahren unter Creating a Multi-Owner Disk Set in Solaris Volume Manager for Sun Cluster for the Oracle Real Application Clusters Database in Sun Cluster Data Service for Oracle Real Application Clusters Guide for Solaris OS durch.
In der folgenden Tabelle werden die Aufgaben aufgelistet, die Sie beim Erstellen von Plattensätzen ausführen.
Tabelle 3–2 Task Map: Installieren und Konfigurieren der Software Solstice DiskSuite oder Solaris Volume Manager
Schritt |
Anweisungen |
---|---|
1. Erstellen Sie Plattensätze mit dem metaset-Befehl. | |
2. Fügen Sie den Plattensätzen Laufwerke hinzu. | |
3. (Optional) Erstellen Sie neue Partitionen der Plattenlaufwerke in einem Plattensatz, um den Bereichen 1 bis 6 Speicherplatz zuzuweisen. | |
4. Listen Sie die DID-Pseudo-Treiberzuordnungen auf und definieren Sie die Metageräte oder Datenträger in den /etc/lvm/md.tab-Dateien. | |
5. Initialisieren Sie die md.tab-Dateien. |
Führen Sie dieses Verfahren durch, um Plattensätze zu erstellen.
(Solaris 8 or Solaris 9) Bestimmen Sie, ob der Cluster nach dem Erstellen der neuen Plattensätze mehr als drei Plattensätze aufweist.
Wenn der Cluster nicht mehr als drei Plattensätze aufweist, gehen Sie weiter zu Schritt 9.
Wenn der Cluster mindestens vier Plattensätze aufweist, fahren Sie mit Schritt 2 fort, um den Cluster vorzubereiten. Sie müssen diese Aufgabe ausführen, unabhängig davon, ob Sie Plattensätze das erste Mal installieren oder ob Sie einem voll konfigurierten Cluster weitere Plattensätze hinzufügen.
Wenn der Cluster unter Solaris 10 OS ausgeführt wird, führt Solaris Volume Manager automatisch die notwendigen Konfigurationsänderungen durch. Gehen Sie weiter zu Schritt 9.
Prüfen Sie auf irgendeinem Knoten des Clusters den Wert der Variablen md_nsets in der Datei /kernel/drv/md.conf.
Wenn die Gesamtanzahl der Plattensätze im Cluster höher als der vorhandene Wert der Variablen md_nsets minus eins ist, erhöhen Sie den Wert von md_nsets auf den gewünschten Wert.
Die maximal zulässige Anzahl von Plattensätzen ist der konfigurierte Wert von md_nsets minus eins. Der maximal zulässige Wert von md_nsets ist 32. Aus diesem Grund ist die maximal zulässige Anzahl an Plattensätzen, die Sie erstellen können, 31.
Stellen Sie sicher, dass die Datei /kernel/drv/md.conf auf allen Knoten des Clusters identisch ist.
Die Nichtbeachtung dieser Richtlinie kann zu schweren Fehlern von Solstice DiskSuite oder Solaris Volume Manager und Datenverlusten führen.
Falls Sie die Datei md.conf an einem beliebigen Knoten geändert haben, führen Sie die folgenden Schritte aus, damit die Änderungen wirksam werden.
Führen Sie auf jedem Knoten des Clusters den Befehl devfsadm(1M) aus.
Sie können diesen Befehl auf allen Knoten des Clusters gleichzeitig ausführen.
Führen Sie von einem Knoten des Clusters den Befehl scgdevs(1M) aus, um den Globalgeräte-Namensraum zu aktualisieren.
Prüfen Sie auf jedem Knoten, dass der Befehl scgdevs die Verarbeitung beendet hat, bevor Sie Plattensätze zu erstellen versuchen.
Der Befehl scgdevs ruft sich selbst auf allen Knoten remote auf, auch wenn der Befehl nur von einem Knoten ausgeführt wird. Um festzustellen, ob der Befehl scgdevs fertig verarbeitet wurde, führen Sie folgenden Befehl auf jedem Knoten des Clusters aus.
% ps -ef | grep scgdevs |
Stellen Sie sicher, dass der Plattensatz, den Sie erstellen möchten, eine der folgenden Anforderungen erfüllt.
Wenn der Plattensatz mit genau zwei Plattenverkettungseinheiten konfiguriert ist, muss der Plattensatz an genau zwei Knoten angeschlossen sein und genau zwei Vermittlerhosts verwenden. Bei diesen Vermittlerhosts muss es sich um dieselben Hosts handeln, die für den Plattensatz verwendet wurden. Einzelheiten zur Konfiguration von Doppelverkettungsvermittlern finden Sie unter Konfigurieren von Doppelverkettungsvermittlern .
Wenn der Plattensatz mit mehr als zwei Plattenverkettungseinheiten konfiguriert wird, stellen Sie sicher, dass die Summe der Anzahl von Plattenlaufwerken von zwei beliebigen Plattenverkettungseinheiten S1 und S2 die Anzahl von Laufwerken der dritten Verkettungseinheit S3 übersteigt. Diese Anforderung kann wie folgt als Formel dargestellt werden: count(S1) + count(S2) > count(S3).
Stellen Sie sicher, dass lokale Zustands-Datenbankreplikate vorhanden sind.
Anweisungen finden Sie unter So erstellen Sie Zustands-Datenbankreplikate .
Melden Sie sich als Superuser bei dem Cluster-Knoten an, der den Plattensatz unterstützen soll.
Erstellen Sie den Plattensatz.
Der folgende Befehl erstellt den Plattensatz und registriert den Plattensatz als Sun Cluster-Plattengerätegruppe.
# metaset -s setname -a -h node1 node2 |
Gibt den Plattensatznamen an
Fügt den Plattensatz hinzu (erstellt den Plattensatz)
Gibt den Namen des Primärknotens an, der den Plattensatz unterstützen soll
Gibt den Namen des Sekundärknotens an, der den Plattensatz unterstützen soll
Wenn Sie den metaset-Befehl ausführen, um eine Solstice DiskSuite oder Solaris Volume Manager-Gerätegruppe auf einem Cluster zu konfigurieren, bestimmt der Befehl standardmäßig einen Sekundärknoten. Sie können die gewünschte Anzahl von Sekundärknoten in der Gerätegruppe mithilfe des Dienstprogramms scsetup(1M) nach der Erstellung der Gerätegruppe ändern. Weitere Informationen zum Ändern der numsecondaries-Eigenschaft finden Sie unter Verwalten von Plattengerätegruppen in Sun Cluster Handbuch Systemverwaltung für Solaris OS.
Prüfen Sie den Status des neuen Plattensatzes.
# metaset -s setname |
Mit dem folgenden Befehl werden zwei Plattensätze erstellt, dg-schost-1 und dg-schost-2, mit den Knoten phys-schost-1 und phys-schost-2 als potenzielle Primärknoten.
# metaset -s dg-schost-1 -a -h phys-schost-1 phys-schost-2 # metaset -s dg-schost-2 -a -h phys-schost-1 phys-schost-2 |
Fügen Sie dem Plattensatz Laufwerke hinzu. Wechseln Sie zu Hinzufügen von Laufwerken zu einem Plattensatz .
Wenn Sie ein Laufwerk zu einem Plattensatz hinzufügen, repartitioniert die Datenträgerverwaltungs-Software das Laufwerk wie folgt, damit die Zustandsdatenbank für den Plattensatz auf dem Laufwerk platziert werden kann.
Ein kleiner Teil jedes Laufwerks wird in Bereich 7 für die Verwendung durch die Software Solstice DiskSuite oder Solaris Volume Manager reserviert. Der restliche Speicherplatz auf jedem Laufwerk wird in Bereich 0 platziert.
Laufwerke, die dem Plattensatz hinzugefügt werden, werden nur dann neu partitioniert, wenn der Bereich 7 nicht korrekt konfiguriert ist.
Bei einer neuen Partitionierung werden alle vorhandenen Daten auf den Laufwerken gelöscht.
Wenn Bereich 7 bei Zylinder 0 beginnt und die Plattenlaufwerk-Partition groß genug ist, um ein Zustands-Datenbankreplikat aufzunehmen, wird das Laufwerk nicht neu partioniert.
Stellen Sie sicher, dass der Plattensatz erstellt wurde. Anweisungen finden Sie unter So erstellen Sie einen Plattensatz .
Melden Sie sich als Superuser beim Knoten an.
Listen Sie die DID-Zuordnungen auf.
# scdidadm -L |
Wählen Sie Laufwerke aus, die von den Cluster-Knoten gemeinsam genutzt werden, die den Plattensatz unterstützen oder potenziell unterstützen sollen.
Verwenden Sie die vollen Geräte-ID-Pfadnamen, wenn Sie einem Plattensatz Laufwerke hinzufügen.
Die erste Spalte der Augabe enthält die DID-Instanznummer, die zweite Spalte den vollen realen Pfadnamen und die dritte Spalte den vollen Geräte-ID-Pfadnamen (Pseudo-Pfad). Ein gemeinsam genutztes Laufwerk hat mehr als einen Eintrag für dieselbe DID-Instanznummer.
Im folgenden Beispiel geben die Einträge für die DID-Instanznummer 2 ein Plattenlaufwerk an, das von phys-schost-1 und phys-schost-2 gemeinsam genutzt wird und dessen voller Geräte-ID-Pfadname /dev/did/rdsk/d2 lautet.
1 phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 2 phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 3 phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 3 phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 … |
Übernehmen Sie die Eigentümerschaft des Plattensatzes.
# metaset -s setname -t |
Gibt den Plattensatznamen an
Übernimmt die Eigentümerschaft des Plattensatzes
Fügen Sie dem Plattensatz Laufwerke hinzu.
Verwenden Sie den vollen Geräte-ID-Pfadnamen.
# metaset -s setname -a drivename |
Fügt dem Plattensatz das Laufwerk hinzu
Voller Geräte-ID-Pfadname des gemeinsam genutzten Laufwerks
Verwenden Sie nicht den Gerätenamen der niedrigeren Ebene (cNtXdY), wenn Sie einem Plattensatz ein Laufwerk hinzufügen. Denn der Gerätename der niedrigeren Ebene ist ein lokaler Name und im Cluster nicht einmalig, weshalb die Verwendung dieses Namens ein Metasatz-Switchover verhindern könnte.
Prüfen Sie den Status des Plattensatzes und der Laufwerke.
# metaset -s setname |
Mit dem metaset-Befehl werden dem Plattensatz dg-schost-1 die Laufwerke /dev/did/rdsk/d1 und /dev/did/rdsk/d2 hinzugefügt.
# metaset -s dg-schost-1 -a /dev/did/rdsk/d1 /dev/did/rdsk/d2 |
Wenn Sie Laufwerke für die Verwendung in Metageräten oder Datenträgern neu partitionieren möchten, wechseln Sie zu So partitionieren Sie Laufwerke in einem Plattensatz neu .
Wechseln Sie andernfalls zu So erstellen Sie eine md.tab-Datei , um Metageräte oder Datenträger mit einer md.tab -Datei zu definieren.
Der Befehl metaset(1M) partitioniert Laufwerke in einem Plattensatz neu, damit ein kleiner Teil jedes Laufwerks in Bereich 7 für die Verwendung durch die Software Solstice DiskSuite oder Solaris Volume Manager reserviert wird. Der restliche Speicherplatz auf jedem Laufwerk wird in Bereich 0 platziert. Verwenden Sie dieses Verfahren für die Änderung des Platten-Layouts, um das Plattenlaufwerk rationeller zu verwenden. Wenn Sie den Bereichen 1 bis 6 Speicherplatz zuweisen, können Sie diese Bereiche verwenden, wenn Sie Solstice DiskSuite-Metageräte oder Solaris Volume Manager-Datenträger konfigurieren.
Melden Sie sich beim Cluster-Knoten als Superuser an.
Verwenden Sie den format-Befehl, um die Plattenpartitionierung jedes Laufwerks im Plattensatz zu ändern.
Wenn Sie ein Plattenlaufwerk neu partitionieren, müssen folgende Bedingungen erfüllt werden, um zu verhindern, dass der Befehl metaset(1M) das Laufwerk neu partitioniert.
Erstellen Sie Bereich 7 auf Zylinder 0 mit einer ausreichenden Größe für ein Zustands-Datenbankreplikat. Ziehen Sie das Administrationshandbuch zu Solstice DiskSuite oder Solaris Volume Manager zurate, um die Größe eines Zustands-Datenbankreplikats für Ihre Version der Datenträgerverwaltungs-Software zu emitteln.
Setzen Sie das Flag-Feld in Bereich 7 auf wu (Lese- und Schreibzugriff, nicht aushängbar). Setzen Sie es nicht auf schreibgeschützt.
Lassen Sie nicht zu, dass Bereich 7 einen anderen Bereich auf dem Laufwerk überlappt.
Weitere Einzelheiten finden Sie in der Online-Dokumentation unter format(1M).
Definieren Sie Metageräte oder Datenträger mihilfe einer md.tab-Datei. Wechseln Sie zu So erstellen Sie eine md.tab-Datei .
Erstellen Sie auf jedem Knoten im Cluster eine Datei /etc/lvm/md.tab. Verwenden Sie die Datei md.tab, um Solstice DiskSuite-Metageräte oder Solaris Volume Manager-Datenträger für die von Ihnen erstellten Plattensätze zu definieren.
Stellen Sie bei Verwendung lokaler Metageräte oder Datenträger sicher, dass sich die lokalen Metageräte- oder Datenträgernamen von den Geräte-ID-Namen unterscheiden, die zum Bilden von Plattensätzen verwendet werden. Wenn zum Beispiel der Geräte-ID-Name /dev/did/dsk/d3 in einem Plattensatz verwendet wird, können Sie den Namen /dev/md/dsk/d3 nicht für ein lokales Metagerät oder einen Datenträger verwenden. Diese Anforderung gilt nicht für gemeinsam genutzte Metageräte oder Datenträger, die die Benennungskonvention /dev/md/setname/{r}dsk/d# verwenden.
Melden Sie sich beim Cluster-Knoten als Superuser an.
Listen Sie die DID-Zuordnungen zum Nachsehen auf, wenn Sie die md.tab-Datei erstellen.
Verwenden Sie in der md.tab-Datei die vollen Geräte-ID-Pfadnamen statt der Gerätenamen der niedrigeren Ebene (cN tXdY).
# scdidadm -L |
Im folgenden Beispiel enthält die erste Spalte der Augabe die DID-Instanznummer, die zweite Spalte den vollen realen Pfadnamen und die dritte Spalte den vollen Geräte-ID-Pfadnamen (Pseudo-Pfad).
1 phys-schost-1:/dev/rdsk/c0t0d0 /dev/did/rdsk/d1 2 phys-schost-1:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 2 phys-schost-2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d2 3 phys-schost-1:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 3 phys-schost-2:/dev/rdsk/c1t2d0 /dev/did/rdsk/d3 … |
Erstellen Sie eine Datei /etc/lvm/md.tab und bearbeiten Sie sie manuell mit Ihrem bevorzugten Text-Editor.
Wenn Daten auf den Laufwerken vorhanden sind, die für die Unterspiegel verwendet werden sollen, müssen Sie von diesen Daten vor der Metageräte- oder Datenträger-Konfiguration Sicherungskopien erstellen. Stellen Sie dann die Daten auf dem Spiegel wieder her.
Um etwaige Verwechselungen zwischen lokalen Metageräten oder Datenträgern in einer Cluster-Umgebung zu vermeiden, verwenden Sie ein Benennungsschema, das jeden lokalen Metageräte- oder Datenträgernamen im Cluster einmalig macht. Wählen Sie zum Beispiel für Knoten 1 Namen von d100-d199. Und für Knoten 2 verwenden Sie d200-d299.
Weitere Einzelheiten zur Erstellung einer md.tab-Datei finden Sie in der Dokumentation zu Solstice DiskSuite oder Solaris Volume Manager und in der Online-Dokumentation unter md.tab(4).
Die folgende md.tab-Beispieldatei definiert den Plattensatz mit der Benennung dg-schost-1. Die Reihenfolge der Zeilen in der md.tab-Datei ist unbedeutend.
dg-schost-1/d0 -m dg-schost-1/d10 dg-schost-1/d20 dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0 dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0 |
Im folgenden Beispiel wird die Terminologie von Solstice DiskSuite verwendet. Bei Solaris Volume Manager werden ein Transaktions-Metagerät Transaktions-Datenträger und ein Metagerät Datenträger genannt. Im Übrigen gilt der folgende Prozess für beide Datenträger-Manager.
Die md.tab-Beispieldatei ist wie folgt strukturiert.
Die erste Zeile definiert das Gerät d0 als Spiegel der Metageräte d10 und d20. Die Option -m bedeutet, dass es sich um ein Spiegelgerät handelt.
dg-schost-1/d0 -m dg-schost-1/d0 dg-schost-1/d20 |
Die zweite Zeile definiert das Metagerät d10, den ersten Unterspiegel von d0, als eindirektionales Stripe.
dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0 |
Die dritte Zeile definiert das Metagerät d20, den zweiten Unterspiegel von d0, als eindirektionales Stripe.
dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0 |
Aktivieren Sie die Metageräte oder Datenträger, die in den md.tab-Dateien definiert sind. Wechseln Sie zu So aktivieren Sie Metageräte oder Datenträger .
Führen Sie dieses Verfahren aus, um Solstice DiskSuite-Metageräte oder Solaris Volume Manager-Datenträger zu aktivieren, die in md.tab Dateien definiert sind.
Melden Sie sich beim Cluster-Knoten als Superuser an.
Stellen Sie sicher, dass sich die md.tab-Dateien im Verzeichnis /etc/lvm befinden.
Stellen Sie sicher, dass Sie die Eigentümerschaft des Plattensatzes auf dem Knoten besitzen, auf dem der Befehl ausgeführt wird.
Übernehmen Sie die Eigentümerschaft des Plattensatzes.
# scswitch -z setname -h node |
Gibt den Plattensatznamen an
Gibt den Knoten an, der die Eigentümerschaft übernimmt
Aktvieren Sie die Metageräte oder Datenträger des Plattensatzes, die in der Datei md.tab definiert sind.
# metainit -s setname -a |
Gibt den Plattensatznamen an
Aktiviert alle Metageräte in der md.tab-Datei
Hängen Sie für jedes Master- und Protokollgerät den zweiten Unterspiegel (submirror2) an.
Wenn die Metageräte oder Datenträger in der md.tab-Datei aktiviert werden, wird nur der erste Unterspiegel (submirror1) der Master- und Protokollgeräte angehängt, sodass submirror2 manuell angehängt werden muss.
# metattach mirror submirror2 |
Wiederholen SieSchritt 3 bis Schritt 6 für jeden Plattensatz im Cluster.
Führen Sie bei Bedarf den Befehl metainit(1M) von einem anderen Knoten aus, der Konnektivität mit den Laufwerken hat. Dieser Schritt ist auch bei Cluster-Paartopologien erforderlich, bei denen nicht von allen Knoten aus auf die Laufwerke zugegriffen werden kann.
Prüfen Sie den Status der Metageräte oder Datenträger.
# metastat -s setname |
Weitere Informationen finden Sie in der Online-Dokumentation unter metastat(1M).
Im folgenden Beispiel werden alle Metageräte aktiviert, die in der md.tab-Datei für den Plattensatz dg-schost- definiert sind. Dann werden die zweiten Unterspiegel des Mastergeräts dg-schost-1/d1 und des Protokollgeräts dg-schost-1/d4 aktiviert.
# metainit -s dg-schost-1 -a # metattach dg-schost-1/d1 dg-schost-1/d3 # metattach dg-schost-1/d4 dg-schost-1/d6 |
Wenn Ihr Cluster Plattensätze enthält, die mit genau zwei Plattengehäusen und zwei Knoten konfiguriert wurden, fügen Sie Doppelverkettungsvermittler hinzu. Wechseln Sie zu Konfigurieren von Doppelverkettungsvermittlern .
Wechseln Sie andernfalls zu So erstellen Sie Cluster-Dateisysteme , um ein Cluster-Dateisystem zu erstellen.
Dieser Abschnitt enthält Informationen und Verfahren zur Konfiguration von Doppelverkettungsvermittlern. Doppelverkettungsvermittler werden für alle Solstice DiskSuite oder Solaris Volume Manager-Plattensätze benötigt, die mit genau zwei Plattenverkettungseinheiten und zwei Cluster-Knoten konfiguriert sind. Dank der Vermittler kann mit der Sun Cluster-Software sichergestellt werden, dass die meisten aktuellen Daten in der Instanz eines Einzelverkettungsfehlers bei einer Doppelverkettungskonfiguration präsentiert werden.
Ein Doppelverkettungsvermittler oder Vermittlerhost ist ein Cluster-Knoten, der Vermittlerdaten speichert. Vermittlerdaten bieten Informationen über den Standort anderer Vermittler und enthalten einen Übernahmezähler, der mit dem in den Datenbankreplikaten gespeicherten Übernahmezähler identisch ist. Dieser Übernahmezähler wird verwendet, um zu bestätigen, dass die Vermittlerdaten mit den Daten in den Datenbankreplikaten synchron sind.
Eine Plattenverkettungseinheit besteht aus einem Plattengehäuse, den realen Laufwerken, den Kabeln vom Gehäuse zu dem/n Knoten und den Schnittstellen-Adapterkarten.
In der folgenden Tabelle werden die Aufgaben aufgelistet, die bei der Konfiguration der Doppelverkettungs-Vermittlerhosts durchgeführt werden.
Tabelle 3–3 Task Map: Installieren und Konfigurieren der Software Solstice DiskSuite oder Solaris Volume Manager
Schritt |
Anweisungen |
---|---|
1. Konfigurieren Sie Doppelverkettungs-Vermittlerhosts. | |
2. Prüfen Sie den Status der Vermittlerdaten. | |
3. Korrigieren Sie gegebenenfalls fehlerhafte Vermittlerdaten. |
Folgende Regeln gelten für Doppelverkettungskonfigurationen, die Vermittler verwenden.
Plattensätze müssen mit exakt zwei Vermittlerhosts konfiguriert werden. Diese zwei Vermittlerhosts müssen dieselben beiden Cluster-Knoten sein, die für den Plattensatz verwendet werden.
Ein Plattensatz kann nicht mehr als zwei Vermittlerhosts aufweisen.
Vermittler können nicht für Plattensätze konfiguriert werden, die die Doppelverkettungs- und Zwei-Host-Kriterien nicht erfüllen.
Diese Regeln erfordern nicht, dass der gesamte Cluster exakt zwei Knoten aufweisen muss. Sie erfordern nur, dass die Plattensätze mit einer Doppelplattenverkettung mit genau zwei Knoten verbunden sein müssen. Diese Regeln lassen N+1-Cluster und viele andere Topologien zu.
Führen Sie dieses Verfahren aus, wenn Ihre Konfiguration Doppelverkettungsvermittler benötigt.
Melden Sie sich als Superuser bei dem Knoten an, der aktuell den Plattensatz unterstützt, dem Sie Vermittlerhosts hinzufügen möchten.
Fügen Sie jeden Knoten mit Konnektivität zum Plattensatz als Vermittlerhost für diesen Datensatz hinzu.
# metaset -s setname -a -m mediator-host-list |
Gibt den Plattensatznamen an
Fügt zum Plattensatz hinzu
Gibt den Namen des Knotens an, der als Vermittlerhost für den Plattensatz hinzugefügt werden soll
Weitere Einzelheiten zu vermittlerspezifischen Optionen des metaset-Befehls finden Sie in der Online-Dokumentation unter mediator(7D).
Das folgende Beispiel fügt die Knoten phys-schost-1 und phys-schost-2 als Vermittlerhosts für den Plattensatz dg-schost-1 hinzu. Beide Befehle werden vom Knoten phys-schost-1 ausgeführt.
# metaset -s dg-schost-1 -a -m phys-schost-1 # metaset -s dg-schost-1 -a -m phys-schost-2 |
Prüfen Sie den Status der Vermittlerdaten. Wechseln Sie zu So prüfen Sie den Status der Vermittlerdaten .
Vergewissern Sie sich, dass Sie Vermittlerhosts hinzugefügt haben, wie unterSo fügen Sie Vermittlerhosts hinzu beschrieben.
Zeigt den Status der Vermittlerdaten an.
# medstat -s setname |
Gibt den Plattensatznamen an
Weitere Informationen finden Sie in der Online-Dokumentation unter medstat(1M).
Wenn der Wert im Statusfeld der medstat-Ausgabe Bad lautet, reparieren Sie den betroffenen Vermittlerhost.
Wechseln Sie zu So reparieren Sie fehlerhafte Vermittlerdaten .
Wechseln Sie zu So erstellen Sie Cluster-Dateisysteme , um ein Cluster-Dateisystem zu erstellen.
Führen Sie dieses Verfahren aus, um fehlerhafte Vermittlerdaten zu reparieren.
Identifizieren Sie alle Vermittlerhosts mit fehlerhaften Vermittlerdaten gemäß dem Verfahren So prüfen Sie den Status der Vermittlerdaten .
Melden Sie sich als Superuser bei dem Cluster-Knoten an, der den betroffenen Plattensatz hat.
Entfernen Sie alle Vermittlerhosts mit fehlerhaften Vermittlerdaten von allen betroffenen Plattensätzen.
# metaset -s setname -d -m mediator-host-list |
Gibt den Plattensatznamen an
Löscht aus dem Plattensatz
Gibt den Namen des Knotens an, der als Vermittlerhost für den Plattensatz entfernt werden soll
Stellen Sie die in Schritt 3 entfernten Vermittlerhosts wieder her.
# metaset -s setname -a -m mediator-host-list |
Fügt zum Plattensatz hinzu
Gibt den Namen des Knotens an, der als Vermittlerhost für den Plattensatz hinzugefügt werden soll
Weitere Einzelheiten zu vermittlerspezifischen Optionen des metaset-Befehls finden Sie in der Online-Dokumentation unter mediator(7D).
Erstellen Sie Cluster-Dateisysteme. Wechseln Sie zu So erstellen Sie Cluster-Dateisysteme .