Sun Cluster Handbuch Softwareinstallation für Solaris OS

Kapitel 4 Konfigurieren der Solaris Volume Manager-Software

Konfigurieren Sie Ihre lokalen und Multihost-Platten für die Software Solaris Volume Manager, indem Sie die Verfahren in diesem Kapitel zusammen mit den Planungsdaten in Planen der Datenträgerverwaltung verwenden. Weitere Einzelheiten finden Sie in der Dokumentation zu Solaris Volume Manager.


Hinweis –

Das Enhanced Storage-Modul der Solaris Management Console ist nicht mit der SunCluster-Software kompatibel. Verwenden Sie die Befehlszeilenschnittstelle oder die SunCluster-Dienstprogramme, um die Solaris Volume Manager-Software zu konfigurieren.


In diesem Kapitel werden die folgenden Themen behandelt:

Konfigurieren der Solaris Volume Manager-Software

In der folgenden Tabelle werden die Aufgaben aufgelistet, die Sie beim Konfigurieren der Software Solaris Volume Manager für die SunCluster-Konfigurationen ausführen.

Tabelle 4–1 Aufgabenzuordnung: Konfigurieren der Solaris Volume Manager Software

Schritt 

Anweisungen 

1. Planen Sie das Layout der Konfiguration von Solaris Volume Manager. 

Planen der Datenträgerverwaltung

2. (Nur Solaris 9) Berechnen Sie die erforderliche Anzahl von Datenträgernamen und Plattensätzen für Ihre Konfiguration, und ändern Sie die Datei /kernel/drv/md.conf.

SPARC: Einstellen der Anzahl der Datenträgernamen und Plattensätze

3. Erstellen Sie Zustands-Datenbankreplikate auf den lokalen Platten. 

So erstellen Sie Zustands-Datenbankreplikate

4. (Optional) Spiegeln Sie die Dateisysteme auf der Root-Platte.

Spiegeln der Root-Platte

ProcedureSPARC: Einstellen der Anzahl der Datenträgernamen und Plattensätze


Hinweis –

Dieses Verfahren ist lediglich für das Solaris 9-Betriebssystem erforderlich. Wenn der Cluster unter Solaris 10 OS ausgeführt wird, fahren Sie mit So erstellen Sie Zustands-Datenbankreplikate fort.

In Version Solaris 10 wurde Solaris Volume Manager so verbessert, dass eine dynamische Konfiguration von Datenträgern möglich ist. Sie brauchen nicht mehr die Parameter nmd und md_nsets in der Datei /kernel/drv/md.conf zu bearbeiten. Neue Datenträger werden nach Bedarf neu erstellt.


Dieses Verfahren beschreibt, wie Sie die Anzahl anSolaris Volume Manager-Datenträgernamen und Plattensätzen festlegen, die Sie für Ihre Konfiguration benötigen. Dieses Verfahren beschreibt auch, wie die Datei /kernel/drv/md.conf zur Angabe der Anzahl geändert wird.


Tipp –

Die Standardanzahl von Datenträgernamen pro Plattensatz beträgt 128, aber viele Konfigurationen benötigen mehr als die Standardanzahl. Erhöhen Sie diese Anzahl, bevor Sie eine Konfiguration implementieren, um später Verwaltungsaufwand zu sparen.

Halten Sie gleichzeitig den Wert des Feldes nmdund md_nsets so niedrig wie möglich. Für alle möglichen Geräte sind Speicherstrukturen gemäß den Festlegungen in nmd und md_nsets vorhanden, auch wenn Sie diese Geräte nicht erstellt haben. Setzen Sie für eine optimale Leistung die Werte von nmd und md_nsets nur geringfügig höher als die Anzahl von Datenträgern, die Sie zu verwenden planen.


Bevor Sie beginnen

Halten Sie das ausgefüllte Arbeitsblatt Gerätegruppen-Konfigurationen bereit.

  1. Berechnen Sie die Gesamtanzahl von Plattensätzen, die Sie im Cluster erwartungsgemäß benötigen, und fügen Sie einen weiteren Plattensatz für private Plattenverwaltung hinzu.

    Der Cluster kann maximal 32 Plattensätze umfassen, 31 Plattensätze für die allgemeine Verwendung und einen Plattensatz für die private Plattenverwaltung. Die Standardanzahl an Plattensätzen beträgt 4. Sie geben diesen Wert für das Feld md_nsets in Schritt 3 ein.

  2. Berechnen Sie den größten Datenträgernamen, den Sie erwartungsgemäß in einem Plattensatz im Cluster benötigen.

    Jeder Plattensatz kann maximal 8192 Datenträgernamen aufweisen. Sie geben diesen Wert für das Feld nmd in Schritt 3 ein.

    1. Ermitteln Sie die Menge von Datenträgernamen, die Sie erwartungsgemäß für jeden Plattensatz benötigen.

      Stellen Sie bei Verwendung lokaler Datenträger sicher, dass jeder Name eines lokalen Datenträgers, in den ein Dateisystem für globale Geräte, /global/.devices/node@ nodeid, eingehängt ist, im gesamten Cluster einmalig ist und nicht mit einem Geräte-ID-Namen im Cluster übereinstimmt.


      Tipp –

      Wählen Sie einen Nummernbereich zur ausschließlichen Verwendung für Geräte-ID-Namen und einen Bereich für jeden Knoten zur ausschließlichen Verwendung für dessen lokale Datenträgernamen. Die Geräte-ID-Namen können zum Beispiel d1 bis d100 verwenden. Die lokalen Datenträger auf Knoten 1 können Namen zwischen d100 und d199 verwenden. Und die lokalen Datenträger auf Knoten 2 können Namen zwischen d200 und d299 verwenden.


    2. Berechnen Sie die höchsten Datenträgernamen, die Sie voraussichtlich in einem Plattensatz benötigen.

      Die festzulegende Anzahl an Datenträgernamen richtet sich eher nach dem Wert des Datenträgernamens als nach der tatsächlichen Anzahl . Wenn der Datenträgernamensbereich von d950 bis d1000 reicht, erfordert die Software Solaris Volume Manager, dass Sie den Wert auf 1000 Namen und nicht auf 50 einstellen.

  3. Bearbeiten Sie als Superbenutzer auf jedem Knoten die Datei /kernel/drv/md.conf.


    Caution – Caution –

    Alle Cluster-Knoten (oder Cluster-Paare bei der Cluster-Paartopologie) müssen unabhängig von der Anzahl der von jedem Knoten bedienten Plattensätze identische /kernel/drv/md.conf-Dateien aufweisen. Die Nichtbeachtung dieser Richtlinie kann zu schweren Fehlern von Solaris Volume Manager und Datenverlusten führen.


    1. Stellen Sie das Feld md_nsets auf den in Schritt 1 bestimmten Wert ein.

    2. Stellen Sie das Feld nmd auf den in Schritt 2 bestimmten Wert ein.

  4. Führen Sie auf jedem Knoten ein Rekonfigurations-Neubooten aus.


    phys-schost# touch /reconfigure
    phys-schost# shutdown -g0 -y -i6
    

    Änderungen an der /kernel/drv/md.conf-Datei werden nach Ausführung eines Rekonfigurations-Neubootens wirksam.

Nächste Schritte

Erstellen Sie lokale Zustands-Datenbankreplikate. Wechseln Sie zu So erstellen Sie Zustands-Datenbankreplikate.

ProcedureSo erstellen Sie Zustands-Datenbankreplikate

Führen Sie dieses Verfahren auf jedem Knoten des Clusters aus.

  1. Melden Sie sich als Superuser an.

  2. Erstellen Sie Zustands-Datenbankreplikate auf einem oder mehreren lokalen Geräten für jeden Cluster-Knoten.

    Geben Sie die Bereiche, die verwendet werden sollen, mit dem realen Namen (cNtXdY sZ) und nicht mit dem Geräte-ID-Namen (dN) an.


    phys-schost# metadb -af slice-1 slice-2 slice-3
    

    Tipp –

    Erstellen Sie zum Schutz der Zustandsdaten, die zum Ausführen der Software Solaris Volume Manager erforderlich sind, mindestens drei Replikate für jeden Knoten. Sie können die Replikate auch auf mehreren Geräten speichern, um sich bei einem Geräteausfall zu schützen.


    Details hierzu finden Sie in der Online-Dokumentation unter metadb(1M) und in der Dokumentation zu Solaris Volume Manager .

  3. Überprüfen Sie die Replikate.


    phys-schost# metadb
    

    Mithilfe des metadb-Befehls können Sie die Replikatliste anzeigen.


Beispiel 4–1 Erstellen von Zustands-Datenbankreplikaten

Das folgende Beispiel zeigt drei Zustands-Datenbankreplikate. Jedes Replikat wird auf einem anderen Gerät erstellt.


phys-schost# metadb -af c0t0d0s7 c0t1d0s7 c1t0d0s7
phys-schost# metadb
flags            first blk      block count
    a       u       16          8192         /dev/dsk/c0t0d0s7
    a       u       16          8192         /dev/dsk/c0t1d0s7
    a       u       16          8192         /dev/dsk/c1t0d0s7

Nächste Schritte

Wenn Sie Dateisysteme auf der Root-Platte spiegeln möchten, fahren Sie mit Spiegeln der Root-Platte fort.

Fahren Sie andernfalls mit Erstellen von Plattensätzen in einem Cluster fort, um Solaris Volume Manager-Plattensätze zu erstellen.

Spiegeln der Root-Platte

Das Spiegeln der Root-Platte verhindert, dass der Cluster-Knoten aufgrund eines Systemplattenausfalls heruntergefahren wird. Auf der Root-Platte können sich vier Dateisystemtypen befinden. Jeder Dateisystemtyp wird mit einer anderen Methode gespiegelt.

Verwenden Sie folgende Verfahren, um jeden Dateisystemtyp zu spiegeln.


Caution – Caution –

Verwenden Sie beim Spiegeln lokaler Platten nicht den Pfad /dev/global, wenn Sie den Plattennamen angeben. Wenn Sie diesen Pfad nicht ausschließlich für Cluster-Dateisysteme angeben, kann das System nicht booten.


ProcedureSo spiegeln Sie das Root-Dateisystem (/)

Verwenden Sie dieses Verfahren, um das Root-Dateisystem (/) zu spiegeln.


Hinweis –

Mit diesem Verfahren werden die Langformen der SunCluster-Befehle bereitgestellt. Die meisten Befehle haben auch Kurzformen. Mit Ausnahme der Formen der Befehlsnamen sind die Befehle identisch. Eine Liste der Befehle und ihrer Kurzformen finden Sie in Anhang A, Sun Cluster Object-Oriented Commands in Sun Cluster System Administration Guide for Solaris OS.


  1. Melden Sie sich als Superuser an.

  2. Bringen Sie den Root-Bereich in eine Einzelbereichsverkettung (unidirektional).

    Geben Sie den realen Plattennamen des Root-Plattenbereichs (cNtXdY sZ) an.


    phys-schost# metainit -f submirror1 1 1 root-disk-slice
    
  3. Erstellen Sie eine zweite Verkettung.


    phys-schost# metainit submirror2 1 1 submirror-disk-slice
    
  4. Erstellen Sie einen eindirektionalen Spiegel mit einem Unterspiegel.


    phys-schost# metainit mirror -m submirror1
    

    Hinweis –

    Wenn es sich bei dem Gerät um ein lokales Gerät handelt, das zum Einhängen eines Dateisystems für globale Geräte, /global/.devices/node@nodeid, verwendet wird, muss der Name des Datenträgers für den Spiegel im gesamten Cluster eindeutig sein.


  5. Richten Sie die Systemdateien für das Root-Verzeichnis (/) ein.


    phys-schost# metaroot mirror
    

    Dieser Befehl bearbeitet die Dateien /etc/vfstab und /etc/system, damit das System mit dem Root-Dateisystem (/) auf einem Metagerät oder Datenträger gebootet werden kann. Weitere Informationen finden Sie auf der Manpage metaroot(1M).

  6. Löschen Sie alle Dateisysteme.


    phys-schost# lockfs -fa
    

    Dieser Befehl löscht alle Transaktionen im Protokoll und schreibt die Transaktionen in das Master-Dateisystem auf allen eingehängten UFS-Dateisystemen. Weitere Informationen finden Sie auf der Manpage lockfs(1M).

  7. Verschieben Sie alle Ressourcen- oder Gerätegruppen vom Knoten.


    phys-schost# clnode evacuate from-node
    
    from-node

    Gibt den Namen des Knoten an, von dem die Ressourcen- oder Gerätegruppen verschoben werden sollen

  8. Booten Sie den Knoten neu.

    Dieser Befehl hängt das jüngst gespiegelte Root-Dateisystem (/) wieder ein.


    phys-schost# shutdown -g0 -y -i6
    
  9. Hängen Sie den zweiten Unterspiegel an den Spiegel an.


    phys-schost# metattach mirror submirror2
    

    Weitere Informationen finden Sie auf der Manpage metattach(1M).

  10. Wenn die zum Spiegeln der Root-Platte verwendete Platte physikalisch an mehrere Knoten angeschlossen ist (Mehrfach-Hosting), ändern Sie die Eigenschaften der Gerätegruppe, um ihre Verwendung als Spiegel zu unterstützen.

    Stellen Sie sicher, dass die Gerätegruppe die folgenden Voraussetzungen erfüllt:

    • Zur Gerätegruppe der im raw-Modus betriebenen Platte darf nur ein konfigurierter Knoten in der Knotenliste enthalten sein.

    • Die Eigenschaft localonly der Gerätegruppe der im raw-Modus betriebenen Platte muss aktiviert werden. Die Eigenschaft localonly verhindert ein unbeabsichtigtes Schützen eines Knotens vor seinem Boot-Gerät, wenn dieses mit mehreren Knoten verbunden ist.

    1. Verwenden Sie gegebebenfalls den Befehl cldevice, um den Namen der Gerätegruppe der im raw-Modus betriebenen Platte festzulegen.


      phys-schost# cldevice show node:/dev/rdsk/cNtXdY
      

      Tipp –

      Wenn Sie den Befehl von einem Knoten aus ausgeben, der nicht physisch mit der Platte verbunden ist, können Sie als Plattennamen cNtXdY anstatt den vollständigen Namen des Gerätepfads angeben.


      Im folgenden Beispiel ist der Name der Gerätegruppe der im raw-Modus betriebenen Platte dsk/d2 Teil des DID-Gerätenamens.


      === Instanzen von DID-Geräten ===                   
      
      DID-Gerätename:                                /dev/did/rdsk/d2
        Vollständiger Gerätepfad:                      phys-schost-1:/dev/rdsk/c1t1d0
        Vollständiger Gerätepfad:                      phys-schost-3:/dev/rdsk/c1t1d0
      …

      Weitere Informationen finden Sie in der Online-Dokumentation cldevice(1CL).

    2. Zeigen Sie die Knotenliste der Gerätegruppe der im raw-Modus betriebenen Platte an.


      phys-schost# cldevicegroup show dsk/dN
      

      Die Ausgabe für die Gerätegruppe dsk/d2 gestaltet sich ungefähr folgendermaßen:


      Gerätegruppenname:                              dsk/d2
      …
        Knotenliste:                                      phys-schost-1, phys-schost-3
      …
        localonly:                                      false
    3. Falls die Knotenliste mehrere Knotennamen enthält, entfernen Sie alle Knoten mit Ausnahme des Knotens, dessen Root-Platte Sie gespiegelt haben, aus der Knotenliste.

      Nur der Knoten, dessen Root-Platte Sie gespiegelt haben, sollte in der Knotenliste für die Gerätegruppe der im raw-Modus betriebenen Platte verbleiben.


      phys-schost# cldevicegroup remove-node -n node devicegroup
      
      -n node

      Gibt den Knoten an, der aus der Knotenliste der Gerätegruppe entfernt werden soll.

    4. Aktivieren Sie die Eigenschaft localonly der Gerätegruppe der im raw-Modus betriebenen Platte, sofern sie nicht bereits aktiviert ist.

      Wenn die localonly-Eigenschaft aktiviert ist, wird die Gerätegruppe der im raw-Modus betriebenen Platte ausschließlich vom Knoten in der Knotenliste verwendet. Diese Verwendung verhindert das unbeabsichtigte Schützen des Knotens vor seinem Boot-Gerät, wenn das Boot-Gerät mit mehreren Knoten verbunden ist.


      phys-schost# cldevicegroup set -p localonly=true devicegroup
      
      -p

      Stellt den Wert der Eigenschaft einer Gerätegruppe ein.

      localonly=true

      Aktiviert die Eigenschaft localonly der Gerätegruppe.

      Weitere Informationen zur Eigenschaft localonly finden Sie in der Online-Dokumentation cldevicegroup(1CL).

  11. Zeichnen Sie den alternativen Boot-Pfad für eine mögliche spätere Verwendung auf.

    Wenn das primäre Boot-Gerät ausfällt, können Sie von diesem alternativen Boot-Gerät booten. Weitere Informationen zu alternativen Boot-Geräten finden Sie unter Special Considerations for Mirroring root (/) in Solaris Volume Manager Administration Guide oder unter Creating a RAID-1 Volume in Solaris Volume Manager Administration Guide.


    phys-schost# ls -l /dev/rdsk/root-disk-slice
    
  12. Wiederholen Sie Schritt 1 bis Schritt 11 auf jedem verbleibenden Knoten im Cluster.

    Vergewissern Sie sich, dass der Name jedes Datenträgers, auf dem ein Dateisystem für globale Geräte, /global/.devices/node@nodeid, eingehängt werden soll, im gesamten Cluster eindeutig ist.


Beispiel 4–2 Spiegeln des Root-Dateisystems (/)

Das folgende Beispiel zeigt die Erstellung des Spiegels d0 auf dem Knoten phys-schost-1, der aus dem Unterspiegel d10 auf der Partition c0t0d0s0 und dem Unterspiegel d20 auf der Partition c2t2d0s0 besteht. Das Gerät c2t2d0 ist eine Multihostplatte. Demzufolge ist die localonly-Eigenschaft aktiviert. Das Beispiel enthält außerdem den alternativen Boot-Pfad für das Aufzeichnen.


phys-schost# metainit -f d10 1 1 c0t0d0s0
d11: Concat/Stripe is setup
phys-schost# metainit d20 1 1 c2t2d0s0
d12: Concat/Stripe is setup
phys-schost# metainit d0 -m d10
d10: Mirror is setup
phys-schost# metaroot d0
phys-schost# lockfs -fa
phys-schost# clnode evacuate phys-schost-1
phys-schost# shutdown -g0 -y -i6
phys-schost# metattach d0 d20
d0: Submirror d20 is attached
phys-schost# cldevicegroup show dsk/d2
Device Group Name:                              dsk/d2
…
  Node List:                                      phys-schost-1, phys-schost-3
…
  localonly:                                     false
phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2
phys-schost# cldevicegroup set -p localonly-true dsk/d2
phys-schost# ls -l /dev/rdsk/c2t2d0s0
lrwxrwxrwx  1 root     root          57 Apr 25 20:11 /dev/rdsk/c2t2d0s0
–> ../../devices/node@1/pci@1f,0/pci@1/scsi@3,1/disk@2,0:a,raw

Nächste Schritte

Fahren Sie zum Spiegeln des Namensraums für globale Geräte /global/.devices/node@nodeid bei Spiegeln des Namensraums für globale Geräte fort.

Um Dateisysteme zu spiegeln, die nicht ausgehängt werden können, fahren Sie mit So spiegeln Sie außer dem Root-Dateisystem (/) andere Dateisysteme, die nicht ausgehängt werden können fort.

Zum Spiegeln benutzerdefinierter Dateisysteme fahren Sie mit So spiegeln Sie Dateisysteme die ausgehängt werden können fort.

Fahren Sie andernfalls mit Erstellen von Plattensätzen in einem Cluster fort, um einen Plattensatz zu erstellen.

Allgemeine Fehler

Bei einer solchen Spiegelung können einige dieser Schritte zu Fehlermeldungen wie metainit: dg-schost-1: d1s0: not a metadevice führen . Derartige Fehlermeldungen sind unbedenklich und können ignoriert werden.

ProcedureSpiegeln des Namensraums für globale Geräte

Verwenden Sie dieses Verfahren, um den Namensraum für globale Geräte /global/.devices/node@nodeid/ zu spiegeln.


Hinweis –

Mit diesem Verfahren werden die Langformen der SunCluster-Befehle bereitgestellt. Die meisten Befehle haben auch Kurzformen. Mit Ausnahme der Formen der Befehlsnamen sind die Befehle identisch. Eine Liste der Befehle und ihrer Kurzformen finden Sie in Anhang A, Sun Cluster Object-Oriented Commands in Sun Cluster System Administration Guide for Solaris OS.


  1. Melden Sie sich als Superuser an.

  2. Bringen Sie den Bereich des Namensraums für globale Geräte in eine Einzelbereichsverkettung (unidirektional).

    Verwenden Sie den realen Plattennamen des Plattenbereichs (cNtXdY sZ).


    phys-schost# metainit -f submirror1 1 1 diskslice
    
  3. Erstellen Sie eine zweite Verkettung.


    phys-schost# metainit submirror2 1 1 submirror-diskslice
    
  4. Erstellen Sie einen eindirektionalen Spiegel mit einem Unterspiegel.


    phys-schost# metainit mirror -m submirror1
    

    Hinweis –

    Der Datenträgername zu einem Spiegel, auf dem ein Dateisystem für globale Geräte, /global/.devices/node@nodeid, eingehängt werden soll, muss im gesamten Cluster eindeutig sein.


  5. Hängen Sie den zweiten Unterspiegel an den Spiegel an.

    Dieses Anhängen startet die Synchronisierung der Unterspiegel.


    phys-schost# metattach mirror submirror2
    
  6. Bearbeiten Sie den Eintrag in der Datei /etc/vfstab für das Dateisystem /global/.devices/node@nodeid.

    Ersetzen Sie die Namen in den Spalten device to mount und device to fsck durch den Spiegelnamen.


    phys-schost# vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    /dev/md/dsk/mirror /dev/md/rdsk/mirror /global/.devices/node@nodeid ufs 2 no global
  7. Wiederholen Sie Schritt 1 bis Schritt 6 auf jedem verbleibenden Knoten im Cluster.

  8. Warten Sie, bis die Synchronisation der Spiegel, die in Schritt 5 begonnen wurde, abgeschlossen ist.

    Verwenden Sie den Befehl metastat(1M), um den Spiegelstatus anzuzeigen und zu überprüfen, ob die Spiegelsynchronisierung abgeschlossen ist.


    phys-schost# metastat mirror
    
  9. Wenn die zum Spiegeln des Namensraum für globale Geräte verwendete Platte physikalisch an mehrere Knoten angeschlossen ist (Mehrfach-Hosting), stellen Sie sicher, dass die Knotenliste der Gerätegruppe nur einen Knoten enthält und die Eigenschaft localonly aktiviert ist.

    Stellen Sie sicher, dass die Gerätegruppe die folgenden Voraussetzungen erfüllt:

    • Zur Gerätegruppe der im raw-Modus betriebenen Platte darf nur ein konfigurierter Knoten in der Knotenliste enthalten sein.

    • Die Eigenschaft localonly der Gerätegruppe der im raw-Modus betriebenen Platte muss aktiviert werden. Die Eigenschaft localonly verhindert ein unbeabsichtigtes Schützen eines Knotens vor seinem Boot-Gerät, wenn dieses mit mehreren Knoten verbunden ist.

    1. Verwenden Sie gegebebenfalls den Befehl cldevice, um den Namen der Gerätegruppe der im raw-Modus betriebenen Platte festzulegen.


      phys-schost# cldevice show node:/dev/rdsk/cNtXdY
      

      Tipp –

      Wenn Sie den Befehl von einem Knoten aus ausgeben, der nicht physisch mit der Platte verbunden ist, können Sie als Plattennamen cNtXdY anstatt den vollständigen Namen des Gerätepfads angeben.


      Im folgenden Beispiel ist der Name der Gerätegruppe der im raw-Modus betriebenen Platte dsk/d2 Teil des DID-Gerätenamens.


      === Instanzen von DID-Geräten ===                   
      
      DID-Gerätename:                                /dev/did/rdsk/d2
        Vollständiger Gerätepfad:                      phys-schost-1:/dev/rdsk/c1t1d0
        Vollständiger Gerätepfad:                      phys-schost-3:/dev/rdsk/c1t1d0
      …

      Weitere Informationen finden Sie in der Online-Dokumentation cldevice(1CL).

    2. Zeigen Sie die Knotenliste der Gerätegruppe der im raw-Modus betriebenen Platte an.


      phys-schost# cldevicegroup show dsk/dN
      

      Die Ausgabe für die Gerätegruppe dsk/d2 gestaltet sich ungefähr folgendermaßen:


      Gerätegruppenname:                              dsk/d2
      …
        Knotenliste:                                      phys-schost-1, phys-schost-3
      …
        localonly:                                      false
    3. Falls die Knotenliste mehrere Knotennamen enthält, entfernen Sie alle Knoten mit Ausnahme des Knotens, dessen Root-Platte Sie gespiegelt haben, aus der Knotenliste.

      Nur der Knoten, dessen Root-Platte Sie gespiegelt haben, sollte in der Knotenliste für die Gerätegruppe der im raw-Modus betriebenen Platte verbleiben.


      phys-schost# cldevicegroup remove-node -n node devicegroup
      
      -n node

      Gibt den Knoten an, der aus der Knotenliste der Gerätegruppe entfernt werden soll.

    4. Aktivieren Sie die Eigenschaft localonly der Gerätegruppe der im raw-Modus betriebenen Platte, sofern sie nicht bereits aktiviert ist.

      Wenn die localonly-Eigenschaft aktiviert ist, wird die Gerätegruppe der im raw-Modus betriebenen Platte ausschließlich vom Knoten in der Knotenliste verwendet. Diese Verwendung verhindert das unbeabsichtigte Schützen des Knotens vor seinem Boot-Gerät, wenn das Boot-Gerät mit mehreren Knoten verbunden ist.


      phys-schost# cldevicegroup set -p localonly=true devicegroup
      
      -p

      Stellt den Wert der Eigenschaft einer Gerätegruppe ein.

      localonly=true

      Aktiviert die Eigenschaft localonly der Gerätegruppe.

      Weitere Informationen zur Eigenschaft localonly finden Sie in der Online-Dokumentation cldevicegroup(1CL).


Beispiel 4–3 Spiegeln des Namensraums für globale Geräte

Das folgende Beispiel zeigt die Erstellung von Spiegel d101, der aus dem Unterspiegel d111 auf der Partition c0t0d0s3 und dem Unterspiegel d121 auf der Partition c2t2d0s3 besteht. Der Dateieintrag /etc/vfstab für /global/.devices/node@1 wird zur Verwendung des Spiegelnamens d101 aktualisiert. Das Gerät c2t2d0 ist eine Multihostplatte. Demzufolge ist die localonly-Eigenschaft aktiviert.


phys-schost# metainit -f d111 1 1 c0t0d0s3
d111: Concat/Stripe is setup
phys-schost# metainit d121 1 1 c2t2d0s3
d121: Concat/Stripe is setup
phys-schost# metainit d101 -m d111
d101: Mirror is setup
phys-schost# metattach d101 d121
d101: Submirror d121 is attached
phys-schost# vi /etc/vfstab
#device        device        mount    FS     fsck    mount    mount
#to mount      to fsck       point    type   pass    at boot  options
#
/dev/md/dsk/d101 /dev/md/rdsk/d101 /global/.devices/node@1 ufs 2 no global
phys-schost# metastat d101
d101: Mirror
      Submirror 0: d111
         State: Okay
      Submirror 1: d121
         State: Resyncing
      Resync in progress: 15 % done
…
phys-schost# cldevice show phys-schost-3:/dev/rdsk/c2t2d0
=== DID Device Instances ===

DID Device Name:                                /dev/did/rdsk/d2
  Full Device Path:                               phys-schost-1:/dev/rdsk/c2t2d0
  Full Device Path:                               phys-schost-3:/dev/rdsk/c2t2d0
…

phys-schost# cldevicegroup show | grep dsk/d2
Device Group Name:                              dsk/d2
…
  Node List:                                      phys-schost-1, phys-schost-3
…
  localonly:                                      false
phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2
phys-schost# cldevicegroup set -p localonly-true dsk/d2

Nächste Schritte

Wenn Sie andere Dateisysteme als Root (/) speichern möchten, die nicht ausgehängt werden können, wechseln Sie zu So spiegeln Sie außer dem Root-Dateisystem (/) andere Dateisysteme, die nicht ausgehängt werden können.

Wenn Sie benutzerdefinierte Dateisysteme spiegeln möchten, wechseln Sie zu So spiegeln Sie Dateisysteme die ausgehängt werden können

Fahren Sie andernfalls mit Erstellen von Plattensätzen in einem Cluster fort, um einen Plattensatz zu erstellen.

Allgemeine Fehler

Bei diesem Spiegelungsvorgang können bestimmte Schritte zu Fehlermeldungen wie metainit: dg-schost-1: d1s0: not a metadevice führen. Derartige Fehlermeldungen sind unbedenklich und können ignoriert werden.

ProcedureSo spiegeln Sie außer dem Root-Dateisystem (/) andere Dateisysteme, die nicht ausgehängt werden können

Verwenden Sie dieses Verfahren, um außer dem Root-Dateisystem (/) andere Dateisysteme zu spiegeln, die während der normalen Systemverwendung nicht ausgehängt werden können, wie zum Beispiel /usr, /opt oder swap.


Hinweis –

Mit diesem Verfahren werden die Langformen der SunCluster-Befehle bereitgestellt. Die meisten Befehle haben auch Kurzformen. Mit Ausnahme der Formen der Befehlsnamen sind die Befehle identisch. Eine Liste der Befehle und ihrer Kurzformen finden Sie in Anhang A, Sun Cluster Object-Oriented Commands in Sun Cluster System Administration Guide for Solaris OS.


  1. Melden Sie sich als Superuser an.

  2. Bringen Sie den Bereich, in dem sich ein nicht aushängbares Dateisystem befindet, in eine Einzelbereichsverkettung (unidirektional).

    Geben Sie den realen Plattennamen des Plattenbereichs an (cNtX dYsZ).


    phys-schost# metainit -f submirror1 1 1 diskslice
    
  3. Erstellen Sie eine zweite Verkettung.


    phys-schost# metainit submirror2 1 1 submirror-diskslice
    
  4. Erstellen Sie einen eindirektionalen Spiegel mit einem Unterspiegel.


    phys-schost# metainit mirror -m submirror1
    

    Hinweis –

    Der Datenträgername für diesen Spiegel muss im Cluster nicht eindeutig sein.


  5. Wiederholen Sie Schritt 1 bis Schritt 4 für alle restlichen nicht einhängbaren Dateisysteme, die Sie spiegeln möchten .

  6. Bearbeiten Sie auf jedem Knoten den Dateieintrag /etc/vfstab für jedes nicht aushängbare Dateisystem, das Sie gespiegelt haben.

    Ersetzen Sie die Namen in den Spalten device to mount und device to fsck durch den Spiegelnamen.


    phys-schost# vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    /dev/md/dsk/mirror /dev/md/rdsk/mirror /filesystem ufs 2 no global
  7. Verschieben Sie alle Ressourcen- oder Gerätegruppen vom Knoten.


    phys-schost# clnode evacuate from-node
    
    from-node

    Gibt den Namen des Knoten an, von dem die Ressourcen- oder Gerätegruppen verschoben werden sollen

  8. Booten Sie den Knoten neu.


    phys-schost# shutdown -g0 -y -i6
    
  9. Hängen Sie den zweiten Unterspiegel an jeden Spiegel an.

    Dieses Anhängen startet die Synchronisierung der Unterspiegel.


    phys-schost# metattach mirror submirror2
    
  10. Warten Sie, bis die Synchronisation der Spiegel, die in Schritt 9 begonnen wurde, abgeschlossen ist.

    Verwenden Sie den Befehl metastat(1M), um den Spiegelstatus anzuzeigen und zu überprüfen, ob die Spiegelsynchronisierung abgeschlossen ist.


    phys-schost# metastat mirror
    
  11. Wenn die zum Spiegeln des aushängbaren Dateisystems verwendete Platte physikalisch an mehrere Knoten angeschlossen ist (Mehrfach-Hosting), stellen Sie sicher, dass die Knotenliste der Gerätegruppe nur einen Knoten enthält und die Eigenschaft localonly aktiviert ist.

    Stellen Sie sicher, dass die Gerätegruppe die folgenden Voraussetzungen erfüllt:

    • Zur Gerätegruppe der im raw-Modus betriebenen Platte darf nur ein konfigurierter Knoten in der Knotenliste enthalten sein.

    • Die Eigenschaft localonly der Gerätegruppe der im raw-Modus betriebenen Platte muss aktiviert werden. Die Eigenschaft localonly verhindert ein unbeabsichtigtes Schützen eines Knotens vor seinem Boot-Gerät, wenn dieses mit mehreren Knoten verbunden ist.

    1. Verwenden Sie gegebebenfalls den Befehl cldevice, um den Namen der Gerätegruppe der im raw-Modus betriebenen Platte festzulegen.


      phys-schost# cldevice show node:/dev/rdsk/cNtXdY
      

      Tipp –

      Wenn Sie den Befehl von einem Knoten aus ausgeben, der nicht physisch mit der Platte verbunden ist, können Sie als Plattennamen cNtXdY anstatt den vollständigen Namen des Gerätepfads angeben.


      Im folgenden Beispiel ist der Name der Gerätegruppe der im raw-Modus betriebenen Platte dsk/d2 Teil des DID-Gerätenamens.


      === Instanzen von DID-Geräten ===                   
      
      DID-Gerätename:                                /dev/did/rdsk/d2
        Vollständiger Gerätepfad:                      phys-schost-1:/dev/rdsk/c1t1d0
        Vollständiger Gerätepfad:                      phys-schost-3:/dev/rdsk/c1t1d0
      …

      Weitere Informationen finden Sie in der Online-Dokumentation cldevice(1CL).

    2. Zeigen Sie die Knotenliste der Gerätegruppe der im raw-Modus betriebenen Platte an.


      phys-schost# cldevicegroup show dsk/dN
      

      Die Ausgabe für die Gerätegruppe dsk/d2 gestaltet sich ungefähr folgendermaßen:


      Gerätegruppenname:                              dsk/d2
      …
        Knotenliste:                                      phys-schost-1, phys-schost-3
      …
        localonly:                                      false
    3. Falls die Knotenliste mehrere Knotennamen enthält, entfernen Sie alle Knoten mit Ausnahme des Knotens, dessen Root-Platte Sie gespiegelt haben, aus der Knotenliste.

      Nur der Knoten, dessen Root-Platte Sie gespiegelt haben, sollte in der Knotenliste für die Gerätegruppe der im raw-Modus betriebenen Platte verbleiben.


      phys-schost# cldevicegroup remove-node -n node devicegroup
      
      -n node

      Gibt den Knoten an, der aus der Knotenliste der Gerätegruppe entfernt werden soll.

    4. Aktivieren Sie die Eigenschaft localonly der Gerätegruppe der im raw-Modus betriebenen Platte, sofern sie nicht bereits aktiviert ist.

      Wenn die localonly-Eigenschaft aktiviert ist, wird die Gerätegruppe der im raw-Modus betriebenen Platte ausschließlich vom Knoten in der Knotenliste verwendet. Diese Verwendung verhindert das unbeabsichtigte Schützen des Knotens vor seinem Boot-Gerät, wenn das Boot-Gerät mit mehreren Knoten verbunden ist.


      phys-schost# cldevicegroup set -p localonly=true devicegroup
      
      -p

      Stellt den Wert der Eigenschaft einer Gerätegruppe ein.

      localonly=true

      Aktiviert die Eigenschaft localonly der Gerätegruppe.

      Weitere Informationen zur Eigenschaft localonly finden Sie in der Online-Dokumentation cldevicegroup(1CL).


Beispiel 4–4 Spiegeln von Dateisystemen, die nicht ausgehängt werden können

Das folgende Beispiel zeigt die Erstellung von Spiegel d1 auf dem Knoten phys-schost-1, um /usr zu spiegeln, das sich auf c0t0d0s1 befindet. Der Spiegel d1 besteht aus dem Unterspiegel d11 auf der Partition c0t0d0s1 und dem Unterspiegel d21 auf der Partition c2t2d0s1. Der Dateieintrag /etc/vfstab für /usr wird aktualisiert, um den Spiegelnamen d1 zu verwenden. Das Gerät c2t2d0 ist eine Multihostplatte. Demzufolge ist die localonly-Eigenschaft aktiviert.


phys-schost# metainit -f d11 1 1 c0t0d0s1
d11: Concat/Stripe is setup
phys-schost# metainit d21 1 1 c2t2d0s1
d21: Concat/Stripe is setup
phys-schost# metainit d1 -m d11
d1: Mirror is setup
phys-schost# vi /etc/vfstab
#device        device        mount    FS     fsck    mount    mount
#to mount      to fsck       point    type   pass    at boot  options
#
/dev/md/dsk/d1 /dev/md/rdsk/d1 /usr ufs  2       no global
…
phys-schost# clnode evacuate phys-schost-1
phys-schost# shutdown -g0 -y -i6
phys-schost# metattach d1 d21
d1: Submirror d21 is attached
phys-schost# metastat d1
d1: Mirror
      Submirror 0: d11
         State: Okay
      Submirror 1: d21
         State: Resyncing
      Resync in progress: 15 % done
…
phys-schost# cldevice show phys-schost-3:/dev/rdsk/c2t2d0
…
DID Device Name:                                /dev/did/rdsk/d2
phys-schost# cldevicegroup show dsk/d2
Device Group Name:                              dsk/d2
…
  Node List:                                      phys-schost-1, phys-schost-3
…
  localonly:                                      false
phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2
phys-schost# cldevicegroup set -p localonly=true dsk/d2

Nächste Schritte

Zum Spiegeln benutzerdefinierter Dateisysteme fahren Sie mit So spiegeln Sie Dateisysteme die ausgehängt werden können fort.

Fahren Sie andernfalls mit Erstellen von Plattensätzen in einem Cluster fort, um einen Plattensatz zu erstellen.

Allgemeine Fehler

Einige der Schritte in diesem Spiegelungsvorgang können Fehlermeldungen der folgenden Art auslösen: metainit: dg-schost-1: d1s0: not a metadevice. Derartige Fehlermeldungen sind unbedenklich und können ignoriert werden.

ProcedureSo spiegeln Sie Dateisysteme die ausgehängt werden können

Verwenden Sie dieses Verfahren, um die benutzerdefinierten Dateisysteme zu spiegeln, die ausgehängt werden können. Bei diesem Verfahren müssen die Knoten nicht neu gebootet werden.


Hinweis –

Mit diesem Verfahren werden die Langformen der SunCluster-Befehle bereitgestellt. Die meisten Befehle haben auch Kurzformen. Mit Ausnahme der Formen der Befehlsnamen sind die Befehle identisch. Eine Liste der Befehle und ihrer Kurzformen finden Sie in Anhang A, Sun Cluster Object-Oriented Commands in Sun Cluster System Administration Guide for Solaris OS.


  1. Melden Sie sich als Superuser an.

  2. Hängen Sie das Dateisystem aus, das Sie spiegeln möchten.

    Stellen Sie sicher, dass im Dateisystem keine Prozesse ausgeführt werden.


    phys-schost# umount /mount-point
    

    Weitere Informationen finden Sie in der Online-Dokumentation umount(1M) und inKapitel 18, Mounting and Unmounting File Systems (Tasks) in System Administration Guide: Devices and File Systems .

  3. Bringen Sie den Bereich, der ein benutzerdefiniertes Dateisystem enthält, das ausgehängt werden kann, in eine Einzelbereichsverkettung (unidirektional).

    Geben Sie den realen Plattennamen des Plattenbereichs an (cNtX dYsZ).


    phys-schost# metainit -f submirror1 1 1 diskslice
    
  4. Erstellen Sie eine zweite Verkettung.


    phys-schost# metainit submirror2 1 1 submirror-diskslice
    
  5. Erstellen Sie einen eindirektionalen Spiegel mit einem Unterspiegel.


    phys-schost# metainit mirror -m submirror1
    

    Hinweis –

    Der Datenträgername für diesen Spiegel muss im Cluster nicht eindeutig sein.


  6. Wiederholen Sie Schritt 1 bis Schritt 5 für jedes einhängbare Dateisystem, das gespiegelt werden soll.

  7. Bearbeiten Sie auf jedem Knoten den Dateieintrag /etc/vfstab für jedes Dateisystem, das Sie gespiegelt haben.

    Ersetzen Sie die Namen in den Spalten device to mount und device to fsck durch den Spiegelnamen.


    phys-schost# vi /etc/vfstab
    #device        device        mount    FS     fsck    mount    mount
    #to mount      to fsck       point    type   pass    at boot  options
    #
    /dev/md/dsk/mirror /dev/md/rdsk/mirror /filesystem ufs 2 no global
  8. Hängen Sie den zweiten Unterspiegel an den Spiegel an.

    Dieses Anhängen startet die Synchronisierung der Unterspiegel.


    phys-schost# metattach mirror submirror2
    
  9. Warten Sie, bis die Synchronisation der Spiegel, die in Schritt 8 begonnen wurde, abgeschlossen ist.

    Verwenden Sie den Befehl metastat(1M), um den Spiegelstatus anzuzeigen.


    phys-schost# metastat mirror
    
  10. Wenn die zum Spiegeln des benutzerdefinierten Dateisystems verwendete Platte physikalisch an mehrere Knoten angeschlossen ist (Mehrfach-Hosting), stellen Sie sicher, dass die Knotenliste der Gerätegruppe nur einen Knoten enthält und die Eigenschaft localonly aktiviert ist.

    Stellen Sie sicher, dass die Gerätegruppe die folgenden Voraussetzungen erfüllt:

    • Zur Gerätegruppe der im raw-Modus betriebenen Platte darf nur ein konfigurierter Knoten in der Knotenliste enthalten sein.

    • Die Eigenschaft localonly der Gerätegruppe der im raw-Modus betriebenen Platte muss aktiviert werden. Die Eigenschaft localonly verhindert ein unbeabsichtigtes Schützen eines Knotens vor seinem Boot-Gerät, wenn dieses mit mehreren Knoten verbunden ist.

    1. Verwenden Sie gegebebenfalls den Befehl cldevice, um den Namen der Gerätegruppe der im raw-Modus betriebenen Platte festzulegen.


      phys-schost# cldevice show node:/dev/rdsk/cNtXdY
      

      Tipp –

      Wenn Sie den Befehl von einem Knoten aus ausgeben, der nicht physisch mit der Platte verbunden ist, können Sie als Plattennamen cNtXdY anstatt den vollständigen Namen des Gerätepfads angeben.


      Im folgenden Beispiel ist der Name der Gerätegruppe der im raw-Modus betriebenen Platte dsk/d2 Teil des DID-Gerätenamens.


      === Instanzen von DID-Geräten ===                   
      
      DID-Gerätename:                                /dev/did/rdsk/d2
        Vollständiger Gerätepfad:                      phys-schost-1:/dev/rdsk/c1t1d0
        Vollständiger Gerätepfad:                      phys-schost-3:/dev/rdsk/c1t1d0
      …

      Weitere Informationen finden Sie in der Online-Dokumentation cldevice(1CL).

    2. Zeigen Sie die Knotenliste der Gerätegruppe der im raw-Modus betriebenen Platte an.


      phys-schost# cldevicegroup show dsk/dN
      

      Die Ausgabe für die Gerätegruppe dsk/d2 gestaltet sich ungefähr folgendermaßen:


      Gerätegruppenname:                              dsk/d2
      …
        Knotenliste:                                      phys-schost-1, phys-schost-3
      …
        localonly:                                      false
    3. Falls die Knotenliste mehrere Knotennamen enthält, entfernen Sie alle Knoten mit Ausnahme des Knotens, dessen Root-Platte Sie gespiegelt haben, aus der Knotenliste.

      Nur der Knoten, dessen Root-Platte Sie gespiegelt haben, sollte in der Knotenliste für die Gerätegruppe der im raw-Modus betriebenen Platte verbleiben.


      phys-schost# cldevicegroup remove-node -n node devicegroup
      
      -n node

      Gibt den Knoten an, der aus der Knotenliste der Gerätegruppe entfernt werden soll.

    4. Aktivieren Sie die Eigenschaft localonly der Gerätegruppe der im raw-Modus betriebenen Platte, sofern sie nicht bereits aktiviert ist.

      Wenn die localonly-Eigenschaft aktiviert ist, wird die Gerätegruppe der im raw-Modus betriebenen Platte ausschließlich vom Knoten in der Knotenliste verwendet. Diese Verwendung verhindert das unbeabsichtigte Schützen des Knotens vor seinem Boot-Gerät, wenn das Boot-Gerät mit mehreren Knoten verbunden ist.


      phys-schost# cldevicegroup set -p localonly=true devicegroup
      
      -p

      Stellt den Wert der Eigenschaft einer Gerätegruppe ein.

      localonly=true

      Aktiviert die Eigenschaft localonly der Gerätegruppe.

      Weitere Informationen zur Eigenschaft localonly finden Sie in der Online-Dokumentation cldevicegroup(1CL).

  11. Hängen Sie das gespiegelte Dateisystem ein.


    phys-schost# mount /mount-point
    

    Weitere Informationen finden Sie in der Online-Dokumentation mount(1M) und in Kapitel 18, Mounting and Unmounting File Systems (Tasks) in System Administration Guide: Devices and File Systems.


Beispiel 4–5 Spiegeln von Dateisystemen, die ausgehängt werden können

Das folgende Beispiel zeigt die Erstellung des Spiegels d4, um /export auf c0t0d0s4 zu spiegeln. Der Spiegel d4 besteht aus dem Unterspiegel d14 auf der Partition c0t0d0s4 und dem Unterspiegel d24 auf der Partition c2t2d0s4. Der Dateieintrag /etc/vfstab für /export wird aktualisiert, um den Spiegelnamen d4 zu verwenden. Das Gerät c2t2d0 ist eine Multihostplatte. Demzufolge ist die localonly-Eigenschaft aktiviert.


phys-schost# umount /export
phys-schost# metainit -f d14 1 1 c0t0d0s4
d14: Concat/Stripe is setup
phys-schost# metainit d24 1 1 c2t2d0s4
d24: Concat/Stripe is setup
phys-schost# metainit d4 -m d14
d4: Mirror is setup
phys-schost# vi /etc/vfstab
#device        device        mount    FS     fsck    mount    mount
#to mount      to fsck       point    type   pass    at boot  options
#
# /dev/md/dsk/d4 /dev/md/rdsk/d4 /export ufs 2 no    global
phys-schost# metattach d4 d24
d4: Submirror d24 is attached
phys-schost# metastat d4
d4: Mirror
       Submirror 0: d14
          State: Okay
       Submirror 1: d24
          State: Resyncing
       Resync in progress: 15 % done
…
phys-schost# cldevice show phys-schost-3:/dev/rdsk/c2t2d0
…
DID Device Name:                                /dev/did/rdsk/d2
phys-schost# cldevicegroup show dsk/d2
Device Group Name:                              dsk/d2
…
  Node List:                                      phys-schost-1, phys-schost-2
…
  localonly:                                      false
phys-schost# cldevicegroup remove-node -n phys-schost-3 dsk/d2
phys-schost# cldevicegroup set -p localonly=true dsk/d2 
phys-schost# mount /export

Nächste Schritte

Wenn Sie Datensätze erstellen müssen, sollten Sie folgende Dokumente lesen:

Wenn Sie über genügend Plattensätze für Ihren Bedarf verfügen, fahren Sie mit einem der folgenden Punkte fort:

Allgemeine Fehler

Einige der Schritte in diesem Spiegelungsvorgang können Fehlermeldungen der folgenden Art auslösen: metainit: dg-schost-1: d1s0: not a metadevice. Derartige Fehlermeldungen sind unbedenklich und können ignoriert werden.

Erstellen von Plattensätzen in einem Cluster

In diesem Abschnitt wird beschrieben, wie Plattensätze für eine Cluster-Konfiguration erstellt werden. Bei der Erstellung eines Solaris Volume Manager-Plattensatzes in einer SunCluster-Umgebung wird dieser automatisch bei der SunCluster-Software als Gerätegruppe des Typs svm registriert. Das Erstellen oder Löschen einer svm-Gerätegruppe muss mit den Befehlen in Solaris Volume Manager erfolgen, damit der zugrunde liegende Plattensatz der Gerätegruppe erstellt bzw. gelöscht wird.


Hinweis –

Führen Sie dieses Verfahren nicht für die Erstellung eines Solaris Volume Manager for Sun Cluster-Plattensatzes für die Verwendung durch Oracle RAC aus. Führen Sie stattdessen die Verfahren unter How to Create a Multi-Owner Disk Set in Solaris Volume Manager for Sun Cluster for the Oracle RAC Database in Sun Cluster Data Service for Oracle RAC Guide for Solaris OS durch.


In der folgenden Tabelle werden die Aufgaben aufgelistet, die Sie beim Erstellen von Plattensätzen ausführen.

Tabelle 4–2 Aufgabenzuordnung: Installieren und Konfigurieren der Software Solaris Volume Manager

Schritt 

Anweisungen 

1. Erstellen Sie Plattensätze mit dem metaset-Befehl.

So erstellen Sie einen Plattensatz

2. Fügen Sie den Plattensätzen Laufwerke hinzu. 

So fügen Sie einem Plattensatz Laufwerke hinzu

3. (Optional) Erstellen Sie neue Partitionen der Plattenlaufwerke in einem Plattensatz, um unterschiedlichen Bereichen Speicherplatz zuzuweisen.

So partitionieren Sie Laufwerke in einem Plattensatz neu

4. Listen Sie die DID-Pseudo-Treiberzuordnungen auf, und definieren Sie die Datenträger in den /etc/lvm/md.tab-Dateien.

So erstellen Sie eine md.tab-Datei

5. Initialisieren Sie die md.tab-Dateien.

Aktivieren von Datenträgern

ProcedureSo erstellen Sie einen Plattensatz

Führen Sie dieses Verfahren durch, um Plattensätze zu erstellen.


Hinweis –

Mit diesem Verfahren werden die Langformen der SunCluster-Befehle bereitgestellt. Die meisten Befehle haben auch Kurzformen. Mit Ausnahme der Formen der Befehlsnamen sind die Befehle identisch. Eine Liste der Befehle und ihrer Kurzformen finden Sie in Anhang A, Sun Cluster Object-Oriented Commands in Sun Cluster System Administration Guide for Solaris OS.


  1. SPARC: (Solaris 9) Legen Sie fest, ob der Cluster nach Erstellen der neuen Plattensätze mehr als drei Plattensätze aufweist.

    • Wenn der Cluster nicht mehr als drei Plattensätze aufweist, gehen Sie weiter zu Schritt 9.

    • Wenn der Cluster mindestens vier Plattensätze aufweist, fahren Sie mit Schritt 2 fort, um den Cluster vorzubereiten. Sie müssen diese Aufgabe ausführen, unabhängig davon, ob Sie Plattensätze das erste Mal installieren oder ob Sie einem voll konfigurierten Cluster weitere Plattensätze hinzufügen.

    • Wenn der Cluster unter Solaris 10 OS ausgeführt wird, führt Solaris Volume Manager automatisch die notwendigen Konfigurationsänderungen durch. Gehen Sie weiter zu Schritt 9.

  2. Prüfen Sie auf irgendeinem Knoten des Clusters den Wert der Variablen md_nsets in der Datei /kernel/drv/md.conf.

  3. Wenn die Gesamtanzahl der Plattensätze im Cluster höher als der vorhandene Wert der Variablen md_nsets minus eins ist, erhöhen Sie den Wert von md_nsets auf den gewünschten Wert.

    Die maximal zulässige Anzahl von Plattensätzen ist der konfigurierte Wert von md_nsets minus Eins. Der maximal zulässige Wert von md_nsets ist 32. Aus diesem Grund ist die maximal zulässige Anzahl an Plattensätzen, die Sie erstellen können, 31.

  4. Stellen Sie sicher, dass die Datei /kernel/drv/md.conf auf allen Knoten des Clusters identisch ist.


    Caution – Caution –

    Die Nichtbeachtung dieser Richtlinie kann zu schweren Fehlern von Solaris Volume Manager und Datenverlusten führen.


  5. Falls Sie die Datei md.conf an einem beliebigen Knoten geändert haben, führen Sie die folgenden Schritte aus, damit die Änderungen wirksam werden.

    1. Melden Sie sich auf einem Knoten als Superuser an.

    2. Fahren Sie den Cluster von einem Knoten herunter.


      phys-schost# cluster shutdown -g0 -y
      
    3. Booten Sie jeden Knoten des Clusters neu.

      • Führen Sie auf SPARC-basierten Systemen Folgendes aus:


        ok boot
        
      • Führen Sie auf x86-basierten Systemen Folgendes aus:

        Wenn das GRUB-Menü angezeigt wird, wählen Sie den entsprechenden Solaris-Eintrag aus und drücken Sie die Eingabetaste. Das GRUB-Menü sieht ungefähr folgendermaßen aus:


        GNU GRUB version 0.95 (631K lower / 2095488K upper memory)
        +-------------------------------------------------------------------------+
        | Solaris 10 /sol_10_x86                                                  |
        | Solaris failsafe                                                        |
        |                                                                         |
        +-------------------------------------------------------------------------+
        Use the ^ and v keys to select which entry is highlighted.
        Press enter to boot the selected OS, 'e' to edit the
        commands before booting, or 'c' for a command-line.

        Weitere Informationen zum GRUB-basierten Starten finden Sie in Kapitel 11, GRUB Based Booting (Tasks) in System Administration Guide: Basic Administration.

  6. Führen Sie auf jedem Knoten des Clusters den Befehl devfsadm(1M) aus.

    Sie können diesen Befehl auf allen Knoten des Clusters gleichzeitig ausführen.

  7. Aktualisieren Sie ausgehend von einem Knoten des Clusters den Namensraum für globale Geräte.


    phys-schost# cldevice populate
    

    Weitere Informationen sind auf der Manpage cldevice(1CL) zu finden.

  8. Prüfen Sie auf jedem Knoten, ob der Befehl verarbeitet wurde, bevor Sie mit der Erstellung von Plattensätzen beginnen.

    Der Befehl wird zwar nur auf einem Knoten gestartet, er wird jedoch entfernt auf allen Knoten ausgeführt. Um festzustellen, ob der Befehl fertig verarbeitet wurde, führen Sie folgenden Befehl auf jedem Knoten des Clusters aus.


    phys-schost# ps -ef | grep scgdevs
    
  9. Stellen Sie sicher, dass der Plattensatz, den Sie erstellen möchten, eine der folgenden Anforderungen erfüllt.

    • Wenn der Plattensatz mit genau zwei Plattenverkettungseinheiten konfiguriert ist, muss der Plattensatz an genau zwei Knoten angeschlossen sein und genau zwei Vermittlerhosts verwenden. Bei diesen Vermittlerhosts muss es sich um dieselben Hosts handeln, die für den Plattensatz verwendet wurden. Einzelheiten zur Konfiguration von Doppelverkettungsvermittlern finden Sie unter Konfigurieren von Doppelverkettungsvermittlern.

    • Wenn der Plattensatz mit mehr als zwei Plattenverkettungseinheiten konfiguriert wird, stellen Sie sicher, dass die Summe der Anzahl von Plattenlaufwerken von zwei beliebigen Plattenverkettungseinheiten S1 und S2 die Anzahl von Laufwerken der dritten Verkettungseinheit S3 übersteigt. Diese Anforderung kann wie folgt als Formel dargestellt werden: count(S1) + count(S2) > count(S3).

  10. Stellen Sie sicher, dass lokale Zustands-Datenbankreplikate vorhanden sind.

    Anweisungen finden Sie unter So erstellen Sie Zustands-Datenbankreplikate.

  11. Melden Sie sich als Superuser bei dem Cluster-Knoten an, der den Plattensatz unterstützen soll.

  12. Erstellen Sie den Plattensatz.

    Der folgende Befehl erstellt den Plattensatz und registriert den Plattensatz als SunCluster-Gerätegruppe.


    phys-schost# metaset -s setname -a -h node1 node2
    
    -s setname

    Gibt den Plattensatznamen an.

    -a

    Fügt den Plattensatz hinzu (erstellt den Plattensatz)

    -h Knoten1

    Gibt den Namen des Primärknotens an, der den Plattensatz unterstützen soll

    node2

    Gibt den Namen des Sekundärknotens an, der den Plattensatz unterstützen soll


    Hinweis –

    Wenn Sie den metaset-Befehl ausführen, um eine Solaris Volume Manager-Gerätegruppe auf einem Cluster zu konfigurieren, bestimmt der Befehl standardmäßig einen Sekundärknoten. Sie können die gewünschte Anzahl Sekundärknoten in der Gerätegruppe ändern; hierzu verwenden Sie das Dienstprogramm clsetup, nachdem die Gerätegruppe erstellt wurde. Weitere Informationen zum Ändern der numsecondaries-Eigenschaft finden Sie unter Administering Device Groups in Sun Cluster System Administration Guide for Solaris OS.


  13. Wenn Sie eine replizierte Gerätegruppe für DiskSuite oder Solaris Volume Manager konfigurieren, richten Sie die Replikationseigenschaft für die Gerätegruppe ein.


    phys-schost# cldevicegroup sync device-group-name
    

    Weitere Informationen zur Datenreplikation finden Sie in Kapitel 4, Data Replication Approaches in Sun Cluster System Administration Guide for Solaris OS.

  14. Prüfen Sie den Status des neuen Plattensatzes.


    phys-schost# metaset -s setname
    
  15. Richten Sie die Eigenschaften der Gerätegruppe entsprechend Iher Bedürfnisse ein.


    phys-schost# cldevicegroup set -p name=value devicegroup
    
    -p

    Gibt eine Gerätegruppeneigenschaft an.

    Name

    Gibt den Namen einer Eigenschaft an.

    Wert

    Gibt den Wert oder die Einstellung der Eigenschaft an.

    devicegroup

    Gibt den Namen der Gerätegruppe an. Der Name der Gerätegruppe ist mit dem des Plattennamens identisch.

    Informationen sind auf der Manpage cldevicegroup(1CL) zu finden.


Beispiel 4–6 Erstellen eines Plattensatzes

Mit dem folgenden Befehl werden zwei Plattensätze erstellt, dg-schost-1 und dg-schost-2, mit den Knoten phys-schost-1 und phys-schost-2 als potenzielle Primärknoten.


phys-schost# metaset -s dg-schost-1 -a -h phys-schost-1 phys-schost-2
phys-schost# metaset -s dg-schost-2 -a -h phys-schost-1 phys-schost-2

Nächste Schritte

Fügen Sie dem Plattensatz Laufwerke hinzu. Wechseln Sie zu Hinzufügen von Laufwerken zu einem Plattensatz.

Hinzufügen von Laufwerken zu einem Plattensatz

Wenn Sie ein Laufwerk zu einem Plattensatz hinzufügen, repartitioniert die Datenträgerverwaltungs-Software das Laufwerk wie folgt, damit die Zustandsdatenbank für den Plattensatz auf dem Laufwerk platziert werden kann.

ProcedureSo fügen Sie einem Plattensatz Laufwerke hinzu

Bevor Sie beginnen

Stellen Sie sicher, dass der Plattensatz erstellt wurde. Anweisungen finden Sie unter So erstellen Sie einen Plattensatz.

  1. Melden Sie sich als Superuser an.

  2. Listen Sie die DID-Zuordnungen auf.


    phys-schost# cldevice show | grep Device
    
    • Wählen Sie Laufwerke aus, die von den Cluster-Knoten gemeinsam genutzt werden, die den Plattensatz unterstützen oder potenziell unterstützen sollen.

    • Verwenden Sie beim Hinzufügen eines Laufwerks zu einem Plattensatz den vollständigen DID-Gerätenamen; dieser hat die Form /dev/did/rdsk/dN.

    Im folgenden Beispiel zeigen die Eingräte zum DID-Gerät /dev/did/rdsk/d3 an, dass das Laufwerk von phys-schost-1 und phys-schost-2 verwendet wird.


    === DID Device Instances ===
    DID Device Name:                                /dev/did/rdsk/d1
      Full Device Path:                               phys-schost-1:/dev/rdsk/c0t0d0
    DID Device Name:                                /dev/did/rdsk/d2
      Full Device Path:                               phys-schost-1:/dev/rdsk/c0t6d0
    DID Device Name:                                /dev/did/rdsk/d3
      Full Device Path:                               phys-schost-1:/dev/rdsk/c1t1d0
      Full Device Path:                               phys-schost-2:/dev/rdsk/c1t1d0
    …
  3. Übernehmen Sie die Eigentümerschaft des Plattensatzes.


    phys-schost# cldegivegroup switch -n node devicegroup
    
    -n node

    Gibt den Knoten an, der die Eigentümerschaft über die Gerätegruppe übernehmen soll.

    devicegroup

    Gibt den Namen der Gerätegruppe an; dieser ist mit dem des Plattensatzes identisch.

  4. Fügen Sie dem Plattensatz Laufwerke hinzu.

    Verwenden Sie den vollen DID-Pfadnamen.


    phys-schost# metaset -s setname -a /dev/did/rdsk/dN
    
    -s Satzname

    Gibt den Namen des Plattensatzes an; dieser ist mit dem der Gerätegruppe identisch.

    -a

    Fügt dem Plattensatz das Laufwerk hinzu


    Hinweis –

    Verwenden Sie nicht den Gerätenamen der niedrigeren Ebene (cNtXdY), wenn Sie einem Plattensatz ein Laufwerk hinzufügen. Denn der Gerätename der niedrigeren Ebene ist ein lokaler Name und im Cluster nicht einmalig, weshalb die Verwendung dieses Namens ein Metasatz-Switchover verhindern könnte.


  5. Prüfen Sie den Status des Plattensatzes und der Laufwerke.


    phys-schost# metaset -s setname
    

Beispiel 4–7 Hinzufügen von Laufwerken zu einem Plattensatz

Mit dem metaset-Befehl werden dem Plattensatz dg-schost-1 die Laufwerke /dev/did/rdsk/d1 und /dev/did/rdsk/d2 hinzugefügt.


phys-schost# metaset -s dg-schost-1 -a /dev/did/rdsk/d1 /dev/did/rdsk/d2

Nächste Schritte

Wenn Sie Laufwerke für die Verwendung in Datenträgern neu partitionieren möchten, wechseln Sie zu So partitionieren Sie Laufwerke in einem Plattensatz neu.

Wechseln Sie andernfalls zu So erstellen Sie eine md.tab-Datei, um Metageräte oder Datenträger mit einer md.tab -Datei zu definieren.

ProcedureSo partitionieren Sie Laufwerke in einem Plattensatz neu

Der Befehl metaset(1M) partitioniert Laufwerke in einem Plattensatz neu, damit ein kleiner Teil jedes Laufwerks in Bereich 7 für die Verwendung durch die Software Solaris Volume Manager reserviert wird. In Geräten mit der Kennzeichnung Inhaltsverzeichnis (VTOC) wird Bereich 7 verwendet. In Geräten mit der Kennzeichnung Extensible Firmware Interface (EFI) wird Bereich 6 verwendet. Der restliche Platz auf allen Laufwerken wird in Bereich 0 platziert. Wenn Sie den Bereichen 1 bis 6 von VTOC oder 1 bis 5 von EFI Platz zuweisen, können Sie diese Bereiche für das Einrichten von Solaris Volume Manager-Datenträgern verwenden.

  1. Melden Sie sich als Superuser an.

  2. Verwenden Sie den format-Befehl, um die Plattenpartitionierung jedes Laufwerks im Plattensatz zu ändern.

    Wenn Sie ein Plattenlaufwerk neu partitionieren, müssen folgende Bedingungen erfüllt werden, um zu verhindern, dass der Befehl metaset(1M) das Laufwerk neu partitioniert.

    • Erstellen Sie Bereich 7 für VTOC oder Bereich 6 für EFI beginnend bei Zylinder 0; dieser ist groß genug, um ein Zustands-Datenbankreplikat zu beherbergen. Ziehen Sie das Administrationshandbuch zu Solaris Volume Manager zurate, um die Größe eines Zustands-Datenbankreplikats für Ihre Version der Datenträgerverwaltungs-Software zu ermitteln.

    • Setzen Sie das Feld Flag im Zielbereich auf wu (Lese- und Schreibzugriff, nicht aushängbar). Setzen Sie es nicht auf schreibgeschützt.

    • Lassen Sie nicht zu, dass der Zielbereich einen anderen Bereich auf dem Laufwerk überlappt.

    Weitere Einzelheiten finden Sie in der Online-Dokumentation unter format(1M).

Nächste Schritte

Definieren Sie mithilfe einer md.tab-Datei Datenträger. Wechseln Sie zu So erstellen Sie eine md.tab-Datei.

ProcedureSo erstellen Sie eine md.tab-Datei

Erstellen Sie auf jedem Knoten im Cluster eine Datei /etc/lvm/md.tab. Verwenden Sie die Datei md.tab, um Solaris Volume Manager-Datenträger für die von Ihnen erstellten Plattensätze zu definieren.


Hinweis –

Wenn Sie lokale Datenträger verwenden, überprüfen Sie, ob die lokalen Datenträgernamen nicht mit den Geräte-ID-Namen übereinstimmen, die für die Erstellung von Plattensätzen verwendet werden. Wenn zum Beispiel der Geräte-ID-Name /dev/did/dsk/d3 in einem Plattensatz verwendet wird, können Sie den Namen /dev/md/dsk/d3 nicht für lokale Datenträger verwenden. Dies gilt nicht für gemeinsam genutzte Datenträger, die die Benennungskonvention /dev/md/setname/{r}dsk/d# verwenden.


  1. Melden Sie sich als Superuser an.

  2. Listen Sie die DID-Zuordnungen zum Nachsehen auf, wenn Sie die md.tab-Datei erstellen.

    Verwenden Sie in der md.tab-Datei die vollen DID-Gerätenamen statt der Gerätenamen der niedrigeren Ebene (cN tXdY). Der DID-Gerätename nimmt die Form /dev/did/rdsk/dN an.


    phys-schost# cldevice show | grep Device
    

    === DID Device Instances ===
    DID Device Name:                                /dev/did/rdsk/d1
      Full Device Path:                               phys-schost-1:/dev/rdsk/c0t0d0
    DID Device Name:                                /dev/did/rdsk/d2
      Full Device Path:                               phys-schost-1:/dev/rdsk/c0t6d0
    DID Device Name:                                /dev/did/rdsk/d3
      Full Device Path:                               phys-schost-1:/dev/rdsk/c1t1d0
      Full Device Path:                               phys-schost-2:/dev/rdsk/c1t1d0
    …
  3. Erstellen Sie eine Datei /etc/lvm/md.tab und bearbeiten Sie sie mit Ihrem bevorzugten Text-Editor.


    Hinweis –

    Wenn Daten auf den Laufwerken vorhanden sind, die für die Unterspiegel verwendet werden sollen, müssen Sie von diesen Daten vor der Datenträger-Konfiguration Sicherungskopien erstellen. Stellen Sie dann die Daten auf dem Spiegel wieder her.


    Um etwaige Verwechslungen zwischen lokalen Datenträgern auf verschiedenen Knoten einer Cluster-Umgebung zu vermeiden, verwenden Sie ein Benennungsschema, das die mehrmalige Verwendung eines lokalen Datenträgernamens im Cluster unmöglich macht. Wählen Sie zum Beispiel für Knoten 1 Namen von d100 bis d199. Und für Knoten 2 verwenden Sie Namen von d200 bis d299..

    Weitere Einzelheiten zur Erstellung einer md.tab-Datei finden Sie in der Dokumentation zu Solaris Volume Manager und in der Online-Dokumentation unter md.tab(4).


Beispiel 4–8 md.tab-Beispieldatei

Die folgende md.tab-Beispieldatei definiert den Plattensatz mit der Benennung dg-schost-1. Die Reihenfolge der Zeilen in der md.tab-Datei ist unbedeutend.


dg-schost-1/d0 -m dg-schost-1/d10 dg-schost-1/d20
    dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0
    dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0

Die md.tab-Beispieldatei ist wie folgt strukturiert.

  1. Die erste Zeile definiert das Gerät d0 als Spiegel der Datenträger d10 und d20. Die Option -m bedeutet, dass es sich um ein Spiegelgerät handelt.


    dg-schost-1/d0 -m dg-schost-1/d0 dg-schost-1/d20
  2. Die zweite Zeile definiert Datenträger d10, den ersten Unterspiegel von d0, als eindirektionales Stripe.


    dg-schost-1/d10 1 1 /dev/did/rdsk/d1s0
  3. Die dritte Zeile definiert Datenträger d20, den zweiten Unterspiegel von d0, als eindirektionales Stripe.


    dg-schost-1/d20 1 1 /dev/did/rdsk/d2s0

Nächste Schritte

Aktivieren Sie die Datenträger, die in den md.tab-Dateien definiert sind. Gehen Sie zu Aktivieren von Datenträgern

ProcedureAktivieren von Datenträgern

Mithilfe dieses Vorgangs können SieSolaris Volume Manager-Datenträger aktivieren, die in md.tab-Dateien definiert sind.

  1. Melden Sie sich als Superuser an.

  2. Stellen Sie sicher, dass sich die md.tab-Dateien im Verzeichnis /etc/lvm befinden.

  3. Stellen Sie sicher, dass Sie die Eigentümerschaft des Plattensatzes auf dem Knoten besitzen, auf dem der Befehl ausgeführt wird.

  4. Übernehmen Sie die Eigentümerschaft des Plattensatzes.


    phys-schost# cldevicegroup switch -n node devicegroup
    
    -n node

    Gibt den Knoten an, der die Eigentümerschaft übernimmt.

    devicegroup

    Gibt den Plattensatznamen an.

  5. Aktivieren Sie die Datenträger des Plattensatzes, die in der md.tab-Datei definiert sind.


    phys-schost# metainit -s setname -a
    
    -s Satzname

    Gibt den Plattensatznamen an.

    -a

    Aktiviert alle Datenträger in der md.tab-Datei.

  6. Wiederholen Sie Schritt 3 bis Schritt 5 für jeden Plattensatz im Cluster.

    Führen Sie bei Bedarf den Befehl metainit(1M) von einem anderen Knoten aus, der Konnektivität mit den Laufwerken hat. Dieser Schritt ist auch bei Cluster-Paartopologien erforderlich, bei denen nicht von allen Knoten aus auf die Laufwerke zugegriffen werden kann.

  7. Überprüfen Sie den Status der Datenträger.


    phys-schost# metastat -s setname
    

    Weitere Informationen finden Sie in der Online-Dokumentation unter metastat(1M).

  8. (Optional) Speichern Sie die Festplatten-Partitionierungsinformationen, um in Zukunft darauf zurückgreifen zu können.


    phys-schost# prtvtoc /dev/rdsk/cNtXdYsZ > filename
    

    Speichern Sie die Datei an einem Ort außerhalb des Clusters. Wenn Sie Änderungen an der Konfiguration der Festplatte vornehmen, führen Sie diesen Befehl erneut aus, damit die geänderte Konfiguration erfasst wird. Wenn eine Festplatte ausfällt und ausgetauscht werden muss, können Sie die Konfiguration der Festplattenpartition mithilfe dieser Informationen wiederherstellen. Weitere Informationen finden Sie auf der Manpage prtvtoc(1M).

  9. (Optional) Erstellen Sie ein Backup Ihrer Cluster-Konfiguration. Mit einem archivierten Backup Ihrer Cluster-Konfiguration wird deren Wiederherstellung erleichtert. Weitere Informationen finden Sie unter How to Back Up the Cluster Configuration in Sun Cluster System Administration Guide for Solaris OS.


Beispiel 4–9 Aktivieren von Datenträgern in der md.tab-Datei

Im folgenden Beispiel werden alle Datenträger aktiviert, die in der md.tab-Datei für den Plattensatz dg-schost- definiert sind.


phys-schost# metainit -s dg-schost-1 -a

Nächste Schritte

Wenn Ihr Cluster Plattensätze enthält, die mit genau zwei Plattengehäusen und zwei Knoten konfiguriert wurden, fügen Sie Doppelverkettungsvermittler hinzu. Wechseln Sie zu Konfigurieren von Doppelverkettungsvermittlern.

Wechseln Sie andernfalls zu So erstellen Sie Cluster-Dateisysteme, um ein Cluster-Dateisystem zu erstellen.

Konfigurieren von Doppelverkettungsvermittlern

Dieser Abschnitt enthält Informationen und Verfahren zur Konfiguration von Doppelverkettungsvermittlern. Doppelverkettungsvermittler werden für alle Solaris Volume Manager-Plattensätze benötigt, die mit genau zwei Plattenverkettungseinheiten und zwei Cluster-Knoten konfiguriert sind. Dank der Vermittler kann mit der SunCluster-Software sichergestellt werden, dass die meisten aktuellen Daten in der Instanz eines Einzelverkettungsfehlers bei einer Doppelverkettungskonfiguration präsentiert werden.

Ein Doppelverkettungsvermittler oder Vermittlerhost ist ein Cluster-Knoten, der Vermittlerdaten speichert. Vermittlerdaten bieten Informationen über den Speicherort anderer Vermittler und enthalten einen Übernahmezähler, der mit dem in den Datenbankreplikaten gespeicherten Übernahmezähler identisch ist. Dieser Übernahmezähler wird verwendet, um zu bestätigen, dass die Vermittlerdaten mit den Daten in den Datenbankreplikaten synchron sind.

Eine Plattenverkettungseinheit besteht aus einem Plattengehäuse, den realen Laufwerken, den Kabeln vom Gehäuse zu dem/n Knoten und den Schnittstellen-Adapterkarten.

In der folgenden Tabelle werden die Aufgaben aufgelistet, die bei der Konfiguration der Doppelverkettungs-Vermittlerhosts durchgeführt werden.

Tabelle 4–3 Aufgabenzuordnung: Installieren und Konfigurieren der Software Solaris Volume Manager

Schritt 

Anweisungen 

1. Konfigurieren Sie Doppelverkettungs-Vermittlerhosts. 

Anforderungen für Doppelverkettungsvermittler

So fügen Sie Vermittlerhosts hinzu

2. Prüfen Sie den Status der Vermittlerdaten. 

So prüfen Sie den Status der Vermittlerdaten

3. Korrigieren Sie gegebenenfalls fehlerhafte Vermittlerdaten. 

So reparieren Sie fehlerhafte Vermittlerdaten

Anforderungen für Doppelverkettungsvermittler

Folgende Regeln gelten für Doppelverkettungskonfigurationen, die Vermittler verwenden.

Diese Regeln erfordern nicht, dass der gesamte Cluster exakt zwei Knoten aufweisen muss. Sie erfordern nur, dass die Plattensätze mit einer Doppelplattenverkettung mit genau zwei Knoten verbunden sein müssen. Diese Regeln lassen N+1-Cluster und viele andere Topologien zu.

ProcedureSo fügen Sie Vermittlerhosts hinzu

Führen Sie dieses Verfahren aus, wenn Ihre Konfiguration Doppelverkettungsvermittler benötigt.

  1. Melden Sie sich als Superuser bei dem Knoten an, der aktuell den Plattensatz unterstützt, dem Sie Vermittlerhosts hinzufügen möchten.

  2. Fügen Sie jeden Knoten mit Konnektivität zum Plattensatz als Vermittlerhost für diesen Datensatz hinzu.


    phys-schost# metaset -s setname -a -m mediator-host-list
    
    -s setname

    Gibt den Plattensatznamen an.

    -a

    Fügt zum Plattensatz hinzu

    -m mediator-host-list

    Gibt den Namen des Knotens an, der als Vermittlerhost für den Plattensatz hinzugefügt werden soll

    Weitere Einzelheiten zu vermittlerspezifischen Optionen des metaset-Befehls finden Sie in der Online-Dokumentation unter mediator(7D).


Beispiel 4–10 Hinzufügen von Vermittlerhosts

Das folgende Beispiel fügt die Knoten phys-schost-1 und phys-schost-2 als Vermittlerhosts für den Plattensatz dg-schost-1 hinzu. Beide Befehle werden vom Knoten phys-schost-1 ausgeführt.


phys-schost# metaset -s dg-schost-1 -a -m phys-schost-1
phys-schost# metaset -s dg-schost-1 -a -m phys-schost-2

Nächste Schritte

Prüfen Sie den Status der Vermittlerdaten. Wechseln Sie zu So prüfen Sie den Status der Vermittlerdaten.

ProcedureSo prüfen Sie den Status der Vermittlerdaten

Bevor Sie beginnen

Vergewissern Sie sich, dass Sie Vermittlerhosts hinzugefügt haben, wie unterSo fügen Sie Vermittlerhosts hinzu beschrieben.

  1. Zeigt den Status der Vermittlerdaten an.


    phys-schost# medstat -s setname
    
    -s setname

    Gibt den Plattensatznamen an.

    Weitere Informationen finden Sie in der Online-Dokumentation unter medstat(1M).

  2. Wenn der Wert im Statusfeld der medstat-Ausgabe Bad lautet, reparieren Sie den betroffenen Vermittlerhost.

    Wechseln Sie zu So reparieren Sie fehlerhafte Vermittlerdaten.

Nächste Schritte

Wechseln Sie zu So erstellen Sie Cluster-Dateisysteme, um ein Cluster-Dateisystem zu erstellen.

ProcedureSo reparieren Sie fehlerhafte Vermittlerdaten

Führen Sie dieses Verfahren aus, um fehlerhafte Vermittlerdaten zu reparieren.

  1. Identifizieren Sie alle Vermittlerhosts mit fehlerhaften Vermittlerdaten gemäß dem Verfahren So prüfen Sie den Status der Vermittlerdaten.

  2. Melden Sie sich als Superuser bei dem Cluster-Knoten an, der den betroffenen Plattensatz hat.

  3. Entfernen Sie alle Vermittlerhosts mit fehlerhaften Vermittlerdaten von allen betroffenen Plattensätzen.


    phys-schost# metaset -s setname -d -m mediator-host-list
    
    -s setname

    Gibt den Plattensatznamen an.

    -d

    Löscht aus dem Plattensatz

    -m mediator-host-list

    Gibt den Namen des Knotens an, der als Vermittlerhost für den Plattensatz entfernt werden soll

  4. Stellen Sie die in Schritt 3 entfernten Vermittlerhosts wieder her.


    phys-schost# metaset -s setname -a -m mediator-host-list
    
    -a

    Fügt zum Plattensatz hinzu

    -m mediator-host-list

    Gibt den Namen des Knotens an, der als Vermittlerhost für den Plattensatz hinzugefügt werden soll

    Weitere Einzelheiten zu vermittlerspezifischen Optionen des metaset-Befehls finden Sie in der Online-Dokumentation unter mediator(7D).

Nächste Schritte

Legen Sie anhand der folgenden Liste fest, welche auf Ihre Cluster-Konfiguration zutreffende Aufgabe als nächstes ausgeführt werden soll. Wenn Sie mehrere Aufgaben in der Liste durchführen müssen, gehen Sie zur ersten Aufgabe.